Facebook se muestra dispuesto a estrechar la vigilancia y así evitar convertirse en un trampolín para las fake news. Pero el origen del problema está en el mismo modelo de negocio.
Así lo ve el articulista Christopher Mims en el Wall Street Journal. Según dice, la red social, que presuntamente ha sido utilizada por agentes rusos para difundir información falsa y en la que se han colgado anuncios dirigidos específicamente a usuarios con un perfil racista e intolerante, “no puede esperar que un cambio de algoritmos o de procesos arregle un problema que parece imbricado en la propia estructura de Facebook”.
“En una red donde los artículos y vídeos se pueden patrocinar y difundir como anuncios, y los propios anuncios pueden volverse virales como el vídeo de un patinazo en una boda, no hay apenas diferencia entre unos y otros”.
Mims señala que mantener a la gente haciendo clic y compartiendo es esencial para todos los parámetros de medición de Facebook: por eso importa tanto que la red nos muestre muchos anuncios y que respondamos al mayor número posible de ellos. Por tanto, si se los deja funcionar solos, “algoritmos como el del hilo de noticias de Facebook favorecen contenidos pensados para despertar nuestras pasiones, con independencia de la fiabilidad de la fuente o de la veracidad”.
“Un viejo eslogan de un periódico era: ‘Si hay sangre, interesa’, o sea, que si alguien resulta herido o muerto, esa es la noticia de portada. En una época en que Facebook nos suministra una desproporcionada cantidad de noticias diarias, un eslogan más apropiado sería: ‘Si es indignante, es contagioso’”.
De momento, la empresa no tiene un incentivo económico para solucionar la difusión de contenidos falsos, advierte el profesor Yochai Benkler, de la Harvard Law School, citado por Mims: “Facebook se ha vuelto tan indispensable para la comunicación de la gente, y tiene tanto poder de mercado, que es esencialmente inmune a las señales” de este.
Sobre qué esperar de la empresa, el articulista recuerda que su director ejecutivo, Mark Zuckerberg, anunció que combatirán el uso ilegal y abusivo de la plataforma, y que el mecanismo primario para seleccionar los anuncios políticos y de otro tipo serán “unas reglas de transparencia aún más exigentes”. Entre ellas contempla que los anuncios puedan ser vistos por todos, y no solo por aquellos que hayan sido elegidos por los anunciantes, además de que se crearán más servicios para proteger a los usuarios.
“Estas medidas –afirma Mims– son un buen comienzo, pero con ellas Facebook se exime de su responsabilidad de ser el primer supervisor de toda la publicidad pagada. ¿Por qué hemos de ser nosotros, los usuarios, los responsables de verificar los anuncios?”.
“Zuckerberg reconoció en un reciente post que la mayor parte de la publicidad pagada en Facebook seguirá siendo contratada ‘sin que el anunciante hable jamás con nadie en Facebook. (…) No chequeamos qué dicen las personas antes de que lo digan, y francamente, no creo que nuestra sociedad deba pretender que lo hagamos’”.
Esa, sin embargo, sería una falsa equivalencia. “La sociedad no quiere que Facebook lea todo lo que escriben nuestros amigos y familiares antes de que lo compartan. Pero muchas personas considerarían razonable que Facebook revisara todo el contenido por el que se le ha pagado para que lo publique y promueva”. La red social, sin embargo –y el periodista cita a Scott Galloway, profesor de marketing en la Universidad de Nueva York–, ha conseguido la rentabilidad y la influencia propia de un medio de comunicación exitoso, “pero es alérgica a las responsabilidades de un medio de comunicación”.
Según Galloway, para una compañía que el año pasado tuvo un flujo de caja de 14.000 millones de dólares, contratar 250 nuevos supervisores de contenidos, como ha dicho que hará, es ridículo. Tiene margen de sobra para contratar 25.000 y gastarse mil millones en inteligencia artificial para ayudarles a detectar contenidos cuestionables.
Fuente: Aceprensa
Ver también un artículo de El Pais sobre la actuación de Facebook contra las noticias falsas en España. También cabe destacar las acciones orientadas a clasificar los medios de comunicación, según el grado de confianza que ofrece a los usuarios.
3 comentarios en “Las noticias falsas y Facebook”
La verdad es que Facebook no tiene ningún incentivo para chequear las publicaciones de personas. También, no es su trabajo para eliminar las noticias falsas. Si una empresa quiere publicar una noticia o un anuncio falso, no es la obligación de Facebook para decir no. Claro para la sociedad, es justo si ellos no incluye noticias falsas. Con la historia de los algoritmos de Facebook (su segmentación del mercado), ellos no son una empresa que se preocupa sobre los efectos sociales.
Totalmente de acuerdo estamos en una sociedad en la que nos creemos todos los contenidos de las redes sociales sin contrastar las informaciones. Nos juntamos con los amigos y siempre salen estos temas, incluso siempre hay alguien que empieza la conversación con un… tiene pinta de ser falso pero nadie ha investigado para saber si esa noticia es verdad o no.
Y como dije antes reproducimos la noticia y a continuación le damos a compartir iniciando esa cadena viral sin saber si será cierta.
Deberíamos enseñar desde pequeños a contrastar las informaciones y animar a la investigación.
Maria Cristina Moreno López (Marketing de Servicios)
Vivimos en una sociedad que lo más morboso atrae. Muchas veces he leído noticias que me han dejado en estado de shock (dramatizando mucho), y hasta que no se lo he contado a mi padre y me ha dicho «¡eso es mentira! no te creas todo lo que sale en Facebook»; no he dejado de crearla.
Incluso hay páginas creadas dentro de FB como por ejemplo periódicos locales pero de otros países que suben sus noticias sin tapujos, verdaderas pero sin sensibilidad; fotos sin pixelar de personas muertas con los balazos en la cabeza, o personas descuartizadas en una maleta, etc. Ya sabemos que Facebook la utilizan millones de personas y entre ellas niños que se crean perfiles con edades falsas y ven estas noticias.
Estaría bien, como dice la entrada, que entre la plataforma como tal y los usuarios, hubiese un filtro, supervisores; Facebook se lo puede permitir, pero a día de hoy lo único que importa es ganar mucho dinero e invertir poco si el éxito ya se tiene y más aún si los propios usuarios estamos de acuerdo con lo que hay y no ponemos ninguna objeción.