Hazte premium Hazte premium

YouTube ignoró las advertencias sobre que su algoritmo potenciaba las teorías conspiranoicas

Una investigación denuncia que la compañía era consciente de la presencia de contenido falso y mensajes extremistas

Esta funcionalidad es sólo para registrados

La lucha por la desinformación en internet se extiende por las principales plataformas digitales. Los contenidos «tóxicos» que buscan enredar y manipular es uno de sus mayores quebraderos de cabeza. Un problema que firmas como Facebook o Twitter no han sabido atajar del todo, pero que también afecta incluso a servicios como YouTube.

El conocido contenedor de vídeos, propiedad de Google, tampoco se escapa de esta lacra. D urante años ha estado albergando publicaciones, algunas muy populares , que difundían discursos y mensajes que alimentaban las teorías conspiranoicas, extremistas o, incluso, «colaban» imágenes de violencia extrema entre vídeos destinados al público infantil.

Según un demoledor informe de Bloomberg , ejecutivos de la compañía dirigida por Susan Wojcicki ignoraron las denuncias de un grupo de trabajadores que alertaban de un aumento de vídeos extremistas y teorías científicas falsas. El algoritmo de recomendación ha alimentado los bulos y el contenido «tóxico». Vídeos y canales que se recomendaban, además, a los usuarios sin reparar en que tendrían un efecto peligroso al causar desinformación.

Algunas de estas publicaciones cuestionaban la llegada del ser humano en la Luna o la eficacia de las vacunas. El informe critica, en ese sentido, la falta de «supervisión editorial» que provoca que la biblioteca de vídeos creciera a base de secuencias aparentemente divertidas pero en muchas ocasiones falsas. «El problema de YouTube es que permite que florezca la tontería. Y, en algunos casos, a través de su poderoso sistema de inteligencia artificial, proporciona el combustible que le permite propagarse», denuncia la investigación.

Aunque los ejecutivos, según se desvela de la publicación, sabían de la presencia de estos contenidos «tóxicos», la compañía prefirió mirar hacia otro lado al entender que podría coartar la libertad de expresión y provocar un derrumbe de las interacciones de los usuarios. En definitiva, afectar a la rentabilidad. La prioridad era alcanzar los objetivos para mantener un crecimiento positivo.

El informe se hace eco de algunas propuestas interesantes de ingenieros para corregir estos problemas, como introducir alertas que adviertieran al usuario de la existencia de un vídeo problemático . Todas las ideas se rechazaron. Otros, incluso, reclamaron dejar de recomendar vídeos cargados de mensajes de odio al entender que vulneraban sus términos de uso.

La respuesta que recibieron los empleados fue una negativa por parte de la empresa, denuncia «Bloomberg», que asegura haber entrevistado a una veintena de trabajadores de YouTube en las últimas semanas. Uno de ellos se atreve, incluso, a señalar a una responsable, la directora general de la compañía, Susan Wojcicki, que supuestamente les daba largas al responder a cada petición con una frase estándar: «Mi trabajo es dirigir la compañía, no lidiar con esto».

El texto recuerda que no fue hasta el año 2017 cuando se empezaron a tomar medidas para frenar la difusión de contenidos pseudocientíficos como evitar que pudieran ser monetizados a través de su herramienta publicitaria. Expertos independientes como Brittan Heller , del Centro Carr de la Universidad de Harvard, explica en declaraciones a «Bloomberg» que uno de los obstáculos a la hora de frenar estos contenidos es que «no saben cómo funciona el algoritmo, pero sí saben que cuanto más escandaloso es el contenido, más vistas».

«En los últimos dos años, nuestro enfoque principal ha sido abordar algunos de los desafíos de contenido más difíciles de la plataforma , teniendo en cuenta los comentarios y las preocupaciones de los usuarios, creadores, anunciantes, expertos y empleados», apuntan a ABC fuentes de YouTube . « Hemos tomado una serie de pasos importantes -continúan-, que incluyen la actualización de nuestro sistema de recomendaciones para evitar la propagación de información errónea dañina, mejorar la experiencia de noticias en YouTube, elevar a 10.000 el número de personas enfocadas en problemas de contenido en Google, invertir en aprendizaje automático para encontrar y eliminar más rápidamente el contenido inapropiado, y revisar y actualizar nuestras políticas: hicimos más de 30 actualizaciones de las mismas solo en 2018. Y este no es el final: la responsabilidad sigue siendo nuestra prioridad número uno».

Esta funcionalidad es sólo para suscriptores

Suscribete
Comentarios
0
Comparte esta noticia por correo electrónico

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Reporta un error en esta noticia

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Muchas gracias por tu participación