Así es el nuevo plan de Twitter para combatir los sesgos raciales y de género de su algoritmo
La red social ha anunciado la creación de un equipo interdisciplinar para estudiar los fallos de sus sistemas de aprendizaje automático
Esta funcionalidad es sólo para registrados
Iniciar sesiónLos algoritmos son los encargados de escoger qué contenido visualizamos en la Red. De mostrarnos publicaciones acordes a nuestras búsquedas y gustos. Sin embargo, están muy lejos de ser infalibles. De contener el discurso de odio y la desinformación dentro de las plataformas ... en las que operan. Y Twitter , como el resto de grandes ecosistemas que dan vida a Internet, lo sabe. La plataforma propiedad de Jack Dorsey ha anunciado la creación de un equipo de trabajo interdisciplinar para entender la forma en que se comporta el algoritmo de la red social . En concreto, el sitio del pajarito pretende descubrir los potenciales daños que puedan producirse con su uso, como el sesgo racial y de género en el recorte de imágenes .
«El uso responsable de la tecnología incluye estudiar los efectos que puede tener a lo largo del tiempo. Cuando Twitter usa sistemas de aprendizaje automático, puede afectar a cientos de millones de tuits por día y, a veces, la forma en que se diseñó un sistema para ayudar podría comenzar a comportarse de manera diferente a la prevista. Estos cambios sutiles pueden comenzar a afectar a las personas que usan Twitter y queremos asegurarnos de que estamos estudiando esos cambios y usándolos para construir un mejor producto», señala la tecnológica en una reciente publicación en su blog corporativo.
Para tratar de dificultar que sus algoritmos se comporten «de manera diferente a la prevista», la tecnológica ha tejido un plan para «evaluar los daños no intencionales posteriores o actuales» que tiene en la red social y poder priorizar los problemas.
A este respecto, un equipo de trabajo interdisciplinar, llamado 'Ética, transparencia y responsabilidad del aprendizaje automático' (Meta, por sus siglas en inglés) se encargará de los análisis, que en un primer momento adoptará tres líneas de estudio : el sesgo racial y de género en el recorte de imágenes (prominencia), las recomendaciones de la línea de tiempo de inicio en todos los subgrupos raciales y las recomendaciones de contenido para diferentes ideologías políticas en siete países.
«Las soluciones técnicas por sí solas no resuelven los posibles efectos dañinos de las decisiones algorítmicas. Nuestro grupo de trabajo es interdisciplinario y está formado por personas de toda la empresa, incluidos los equipos técnicos, de investigación, de confianza y seguridad y de productos», destacan a este respecto desde la red social.
Los fallos del algoritmo
Los problemas en el algoritmo de Twitter no son algo nuevo. El pasado 2018 la revista 'Science' compartió un estudio en el que se sostenía que en la plataforma las noticias falsas se esparcen seis veces más rápido que las verdaderas y que la ira es la emoción que se extiende con más rapidez. Estos fallos también son extensibles a otras plataformas, como Facebook , que ha sido duramente criticada por sus problemas a la hora de controlar la desinformación y las incitaciones al odio . Incluso la exitosa TikTok ha sido acusada recientemente de potenciar el contenido de usuarios afines a grupos extremistas estadounidenses , como es el caso de Qanon.
«Las redes sociales tienen responsabilidad a la hora de controlar el contenido. Tenemos un problema con los algoritmos. Hemos dejado que una parte cada vez más importante de nuestra vida en manos de ellos, que son los que deciden lo que ocurre. Si vemos algo, se elimina una publicación o se bloquea una cuenta. Hasta el momento, Twitter siempre se ha justificado afirmando que es un espacio de libertad de expresión», explica a ABC Fernando Checa, experto en redes sociales y marketing online y profesor en la Universidad Internacional de La Rioja (UNIR).
En lo que se refiere al uso de lenguaje tóxico, en el que se incluyen insultos y comentarios racistas, un estudio elaborado por el Instituto Reuters de la Universidad de Oxford, que será publicado el mes que viene, aunque sus datos son concluyentes, sostiene que el 13% de las publicaciones vertidas en España en Twitter referentes a la Covid-19 entre agosto de 2020 y enero de 2021 fueron tóxicas . Asimismo, los investigadores notaron relación entre el empleo de palabras malsonantes y vejaciones con el número de interacciones que consiguen; lo que puede hacer que el algoritmo las premie.
«Hay una relación positiva entre los tuits tóxicos que reciben muchos 'likes' y retuits y su consumo. Es decir, cuanto más tóxico es un tuit más probabilidad hay de que reciba 'me gusta'. Esa relación existe en todos los países», destaca a este diario la doctora Silvia Majó-Vázquez, directora del estudio.
Límite de sesiones alcanzadas
- El acceso al contenido Premium está abierto por cortesía del establecimiento donde te encuentras, pero ahora mismo hay demasiados usuarios conectados a la vez. Por favor, inténtalo pasados unos minutos.
Has superado el límite de sesiones
- Sólo puedes tener tres sesiones iniciadas a la vez. Hemos cerrado la sesión más antigua para que sigas navegando sin límites en el resto.
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para registrados
Iniciar sesiónEsta funcionalidad es sólo para suscriptores
Suscribete