Acusan a TikTok de promocionar el contenido de grupos extremistas como Qanon
Las redes sociales tienen un problema con la promoción de contenido que realizan sus algoritmos
'Media Matters for America', organización dedicada al estudio de los medios que está detrás de la investigación , sostiene que, aunque TikTok prohíbe el contenido de estas cuatro organizaciones, «el algoritmo de la compañía parece estar circulando su contenido y ayudándolos a expandir sus seguidores». Apunta que si un usuario sigue las recomendaciones de cuentas de la red, finalmente encuentra una de estas organizaciones y que, si decide seguir a alguna de ellas, esto le llevará a recibir sugerencias de seguimiento del resto de espacios de extrema derecha.
La organización explica que, de acuerdo a lo que ha observado, hay varios patrones por los que la plataforma puede promocionar contenido extremista . Y ninguno pasa porque este lo busque directamente dentro de la aplicación. Todo comienza en la pestaña de sugerencias de la aplicación, conocida en España como 'Para ti'. 'Media Matters' sostiene que se encontró con una cuenta de Qanon en este espacio, y que, después de comenzar a seguirla, el algoritmo de la red social le recomendó otras.
«En otro ejemplo, después de seguir una cuenta de Three Percenter, desde la página 'Para ti', TikTok sugirió seguir una cuenta Three Percenter diferente. Después de seguir la segunda cuenta, TikTok recomendó otra cuenta Three Percenter . Después de seguir varios relatos de Three Percenter, la red de radicalización se expandió y en ocasiones se recomendaron relatos de Patriot Party , QAnon y otros», apuntan desde la organización sobre el funcionamiento de las recomendaciones de este tipo de contenido aportando ejemplos de las cuentas.
La 'app' china, por su parte, niega que esté promocionando este contenido . «TikTok trabaja insistentemente para detener la propagación de la desinformación y la violencia. Además, prohibimos la promoción de teorías QAnon y grupos extremistas, incluyendo Three Percenters, Patriot Party y Oath Keepers. También redirigimos las búsquedas y los hashtags relacionados con este tipo de teorías y organizaciones a nuestras Normas de la Comunidad para hacer que este contenido sea más difícil de encontrar», afirma la red social en declaraciones compartidas con ABC.
Sea como fuere, no es, ni mucho menos, la primera vez que se critica al algoritmo de la plataforma viral. Y tampoco a las medidas implementadas por la red social en lo que se refiere a qué contenido es visible y cuál no.
El pasado 2019 la aplicación viral, que se convirtió en la red social más descargada durante 2020, fue acusada de censurar el contenido crítico con el gobierno comunista de China. Según una serie de documentos desvelados por ' The Guardian ', la 'app' «instruye a sus moderadores para censurar videos que mencionan la Plaza de Tiananmen, la independencia tibetana o el grupo religioso prohibido Falun Gong». También se descubrió que ByteDance, la matriz de la 'app', dio órdenes de minimizar la visualización de contenido vertido por usuarios «feos» y «pobres».
El algoritmo no lo puede todo
A pesar de sus esfuerzos por combatir la desinformación, a las redes sociales les está costando dar con la tecla para solventar el problema de raíz. El pasado agosto la fundación estadounidense Avaaz publicó un estudio en el que afirmaba que 82 sitios web dedicados a compartir información sanitaria falsa utilizaron Facebook para conseguir tráfico en sus propios dominios . Durante el pasado año, estas páginas, entre las que figuran sitios (supuestamente) de noticias habrían generado en total 3.800 millones de visitas procedentes de cinco países distintos (Estados Unidos, Francia, Reino Unido, Alemania e Italia) gracias a su actividad en la plataforma. Solamente en el mes de abril, con el coronavirus en ebullición, Facebook permitió 460 millones de visitas a noticias de salud falsas.
Instagram, plataforma que también es propiedad de Mak Zuckerberg, fue acusada también hace unas semanas de promocionar contenido antivacunas y publicaciones que incitaban al odio . Aunque se hayan tomado medidas para limitar la difusión de estos contenidos; los expertos recuerdan que los algoritmos, que son los encargados de escoger qué contenido ve un usuario de acuerdo a sus gustos y sus hábitos, no son perfectos.
«Las redes sociales quieren actuar con inmediatez, algo que hacen mediante el algoritmo. Pero el algoritmo no lo puede todo. Tiene sus límites», explica a este diario Ofelia Tejerina, jurista especializada en asuntos digitales y presidenta de la Asociación de Internautas . La experta hace hincapié en que «las administraciones públicas se están mostrando incapaces de frenar la difusión de contenido dañino en internet» y son ellas las que deberían tutelar a las empresas a la hora de seleccionar qué contenido es pernicioso para el internauta: «Debe haber una colaboración público privada más estricta, pero la batuta la debe llevar el sector público».