Facebook, Twitter y Google tienen que hacerlo mejor con las «fake news»: sí o sí
Facebook, Twitter y Google tienen que hacerlo mejor con las «fake news»: sí o sí - AFP
ANÁLISIS

Facebook, Twitter y Google tienen que hacerlo mejor con las «fake news»: sí o sí

Los controles de verificación y revisión de los contenidos vuelven a fallar durante la masacre de Las Vegas, un escenario en el que la combinación de equipos humanos y sistemas informáticos debe ser más fuerte para evitar agrandar esta lacra digital

MADRIDActualizado:

Vivimos en la sobreabundancia de información. Todo está a un segundo de distancia. Gran parte del conocimiento heredado de siglos de existencia está al alcance de cualquiera a través de internet. Si buscas bien acabas por encontrarlo. Las redes sociales, por su parte, han sabido generar un lucrativo negocio gracias a los datos de sus usuarios. La empresa perfecta. Quién pudiera habérsele ocurrido tal cosa y forrarse antes de los treinta. Servir en bandeja un contenedor de imágenes, comentarios y publicaciones de terceros de manera gratuita, generar una necesidad y aprovecharse de la inocente capacidad de los usuarios que deciden colgar ese material. Perfecto. Redondo. Ingenioso.

Pero las redes sociales y los servicios digitales más populares se enfrentan a su gran crisis, la pasiva y despreocupada actitud para equilibrar la balanza de las llamadas «fake news», una de las mayores lacras de su actividad. Lo han intentado, pero deben hacer un esfuerzo mayor. Uno de los primeros capítulos de esa desventura arranca en el momento en el que, hace un año, Facebook, la mayor plataforma del mundo (administra 2.000 millones de usuarios), tuvo que echar para atrás los planes iniciales en su estrategia de revisión.

Después de su primera polémica, la multinacional americana reconoció que sus sistemas informáticos y algoritmos no habían sido lo efectivos que se esperaba en la detección y contención de los bulos y noticias erróneas. En su lugar, y llamando a la calma, anunció que contrataría a miles de revisores (personas), supuestamente con mayor criterio para decidir qué contenido es apto o no. Entonces, ¿ha fallado la inteligencia artificial en esta materia? ¿Aún no estamos preparados?

En plena vorágine de los acontecimientos, los principales servicios digitales (Google, Twitter, Facebook…) han sido llamados a comparecer en el Congreso de los Estados Unidos para declarar sobre su papel en las pasadas elecciones presidenciales en las que, recordemos, salió elegido entre polémica Donald Trump. Se ha perturbado el propio sistema, y las firmas tecnológicas son conscientes. Facebook lo sabe, por eso asume su responsabilidad en la trama rusa en la que miles de cuentas atribuidas a grupos rusos contrataron publicidad para intentar influir en los usuarios. Fueron unos 3.000 anuncios, que llegaron, ojo, a diez millones de usuarios. Posiblemente, muchos de ellos electores. Algo parecido le sucede a Twitter, la red de «microblogging» por excelencia (328 millones de usuarios), que ha tenido que suspender unas 200 cuentas.

Los autores de esos bulos son listos: han sabido utilizar y explotar la propia infraestructura diseñada por los gigantes de internet. «Estas empresas son los guardianes de la información más poderosos que el mundo haya conocido, y sin embargo se niegan a asumir la responsabilidad de su papel activo en dañar la calidad de la información que llega al público», sostiene Alexis C. Madrigal, en un artículo publicado en «The Atlantic». Parte del problema -añade este analista- se debe al cambio producido en 2014 en el sistema de búsquedas de Google. Desde entonces, foros y servicios como 4Chan que son conocidos por ser fuente de bulos y desinformación se incluyen en el cajetín de «noticias» del buscador, alimentando con ello lo que considera «el ecosistema de las noticias».

Esa crisis se vuelve a acentuar a raíz de la masacre de Las Vegas. Durante un concierto de country, un tirador mató a 59 personas y dejó heridas a quinientas personas. Los, supuestamente, guardianes de la red han vuelto a caer en su miseria. Sus algoritmos encargados de velar por la buena salud de los contenidos han vuelto a privilegiar y primar fuentes de acreditado interés en los bulos y mentiras. En los primeros instantes del tiroteo, en Facebook ya asomaban la patita enlaces con noticias falsas. Su intención, clara: agitar a los usuarios y llevarlos hacia el odio.

Un portavoz de Google dijo al «The New York Times» que esos resultados de búsqueda «no deberían haber aparecido y seguiremos haciendo mejoras algorítmicas para evitar que esto suceda en el futuro». Se ha vuelto a repetir el patrón y de cómo se abusa de estos aparentemente inocentes servicios digitales. «Se está volviendo todo más polarizado», reconoce a «The Guardian»Brooke Binkowski, editora del sitio web de verificación de datos Snopes.com, quien reconoce que «muchos trolls retuercen esto deliberadamente para enturbiar el debate».

El debate se sitúa en su punto álgido. Porque estas plataformas tienen millones y millones de usuarios pero no se toman de verdad en serio estas responsabilidades. Mucho ruido y pocas nueces en las redes sociales. ¿Intervención humana? ¿Apuesta por los automatismos? ¿Es la moderación y la revisión a posteriori la solución al problema de las noticias falsas? Desde Facebook aseguran que retiraron estos posts de la página de tendencias. En un primer momento, se atribuyó al Daesh los muertos. La idea se introdujo en el cerebro de miles de personas. El FBI tuvo que salir a la palestra a desactivar las conexiones con los yihadistas. Por ahora, dijeron fuentes de la investigación, no se ha hallado vínculo alguno con los islamistas. La policía ha identificado a Stephen Paddock, de 64 años, como el sospechoso que abrió fuego desde una habitación de hotel en Nevada.