Otra idea de Facebook contra las «fake news»: ocultar el contenido polémico antes de que se viralice

La multinacional norteamericana, que asume no haber estado a la altura, ha implementado varias fórmulas para reducir el impacto de estas noticias que, en muchos casos, pretenden manipular o influir en los usuarios

MADRIDActualizado:

Las «fake news» son una amenaza indisoluble en estos momentos. Un parche para evitarlas abre otro agujero por el que se las ingenian grupos organizados para difundir contenido falso. Una solución fácil no tiene, es lógico, pero las redes sociales han empezado, al menos, a ser conscientes que deben ponerle remedio a esta lacra. Facebook, para contrarrestarlas, tiene un nuevo plan: ocultar el contenido polémico antes de que se viralice.

Esta medida se empezará a poner en marcha progresivamente y, aunque no es perfecta, permitirá establecer ciclos combinados de revisiones por parte de personas y máquinas, por lo que los algoritmos informáticos deberán dar un paso más; deberán ser adaptativos y flexibles para ir ocultando a tiempo las publiciaciones susceptibles de ser falsas.

En el último año, la multinacional norteamericana ha implementado varias fórmulas para reducir el impacto de estas noticias que, en muchos casos, pretenden manipular o influir en los usuarios. Es cierto, también, que los propios usuarios se encargan de compartir esos contenidos sin reparar a veces que están informando de manera sesgada o directamente propagando bulos.

Para ello, Facebook ha empezado a informar de publicaciones relevantes y afinar mejor sus algoritmos para evitar que se viralicen; el gran problema adicional. La firma lo denomina como un sistema de «identificación proactiva de contenido perjudicial». Un nombre algo descabellado para, sencillamente, penalizar casi en tiempo real las noticias supuestamente falsas.

«Uno de los mayores problemas a los que se enfrentan las redes sociales es que, cuando no se controlan, las personas se involucran de manera desproporcionada con contenido más sensacionalista y provocativo», explica en un comunicado el presidente ejecutivo de Facebook, Mark Zuckerberg. Esto no es un nuevo fenómeno, pero en la actualidad está muy extendido. A un nivel alto puede socavar la calidad del discurso público y conducir a una polarización de la sociedad. «En nuestro caso también puede degradar la calidad de nuestros servicios», apunta.

La empresa, en ese sentido, está estudiando crear un órgano independiente para revisar las apelaciones presentadas por usuarios tras la retirada de contenidos y ha afirmado que la compañía no debería tomar por sí sola «tantas decisiones importantes sobre la libertad de expresión y la seguridad». Los detalles sobre el organismo están cambiando, pero la meta es «aumentar la rendición de cuentas» sobre las decisiones de eliminación de contenido y garantizar que no son impulsadas por razones comerciales, auqnue tiene claro que el estado de la inteligencia artificail «aún no es suficiente» para gestionar estos desafíos por sí sola.

Este anuncio se produce en el marco de una actualización del Informe de Transparencia de Facebook, que revela cómo la compañía lidia con el contenido inapropiado, las solicitudes de gobiernos sobre información de los usuarios y las peticiones sobre materiales que violan los derechos de propiedad intelectual. «Tenemos una responsabilidad social más amplia para ayudar a acercar a las personas, contra la polarización y el extremismo. Los últimos dos años han demostrado que sin las garantías suficientes, las personas utilizarán indebidamente estas herramientas para interferir en las elecciones, difundir la información errónea e incitar a la violencia», señala.

Facebook se ha enfrentado a duras críticas durante los últimos dos años por su lenta respuesta a una variedad de temas relacionados con contenido problemático. Así, ha insistido en que en el último año ha priorizado la identificación de personas y contenidos relacionados con la propagación del odio en países con crisis como Myanmar, aunque ha asumido recientemente su responsabilidad. «Fuimos demasiado lentos», lamenta Zuckerberg, quien da agunos datos: «identificamos de manera proactiva alrededor del 63% de los mensajes de odio.

Agencias de Inteligencia de Estados Unidos determinaron que operativos rusos difundieron propaganda en Facebook durante la elección presidencial del 2016. Otros gobiernos e investigadores de Derechos Humanos han alertado sobre la lentitud para eliminar contenido extremista, algo en lo que Facebook ha mejorado. La compañía ha seguido publicando más datos sobre sus prácticas de moderación de contenido para abordar las críticas. »Estamos en un lugar mucho más firme que en 2016 (...) También hemos logrado avances en el retiro de contenido dañino desde nuestros servicios»", añade. Facebook también planea aumentar la transparencia en relación con los cambios de su política de servicio en las próximas semanas.