Suscribete a
ABC Premium

Tiroteos clasificados como accidentes de coche: los errores de Facebook detectando el odio y la violencia

'The Wall Street Journal' ha compartido nuevos documentos internos de la red social en los que se destacan los errores de la Inteligencia Artificial de la plataforma en labores de moderación de contenido

Rodrigo Alonso

Esta funcionalidad es sólo para registrados

Facebook , como el resto de compañías de redes sociales, depende en buena medida de los algoritmos y de la Inteligencia Artificial (IA) para controlar los mensajes que se vierten en su interior y violan sus normas. Sin embargo, esta tecnología ni es infalible ... ni es capaz de limpiarlo todo. Y eso lo saben hasta los ingenieros de la plataforma. Según el diario estadounidense ' The Wall Street Journal ', que ha accedido a información interna de Facebook, la IA que emplea la red social registra errores a la hora de identificar «con consistencia» el contenido que va contra sus normas en lo que respecta al odio o la violencia . La tecnlogía incluso da problemas a la hora de diferenciar peleas de gallos de accidentes automovilísticos.

Artículo solo para suscriptores

Esta funcionalidad es sólo para suscriptores

Suscribete
Comparte esta noticia por correo electrónico
Reporta un error en esta noticia