Desvelan el origen de las imágenes porno falsas de Taylor Swift que han inundado las redes sociales
De acuerdo con la empresa de análisis Graphika, todo el contenido, creado con IA, fue producto de un reto viral entre usuarios del foro 4Chan
El mejor cargador que puedes utilizar para tu 'smartphone' y no gastar dinero a lo tonto
Taylor Swift
La inteligencia artificial puede cambiarte la vida. Y, además, hacerlo para mejor. Sin embargo, la tecnología también esconde muchos posibles malos usos. Puede ponerte a decir cosas que jamás has dicho, y hasta coger tu cara y desnudar tu cuerpo. Precisamente, esto último es ... algo que saben bien cada vez más mujeres, especialmente las famosas. Y dentro de este grupo, la que más se ha visto afectada durante los últimos meses por la tecnología es, sin duda, Taylor Swift. La artista pop del momento fue víctima hace unos días de una campaña masiva de imágenes pornográficas falsas creadas con IA que corrieron como la pólvora por redes sociales. Aparentemente, todo este contenido fue generado a partir de un reto en el sitio web del foro 4Chan.
De acuerdo con un reporte de la empresa de análisis de redes sociales Graphika, recogido por 'The New York Times', los usuarios detrás de la generación de las imágenes, tenían como objetivo simplemente funcionar como una suerte de juego. Únicamente querían ver si eran capaces de generar imágenes lascivas de una famosa. Y le tocó a Swift, que en las imágenes generadas por IA aparecía totalmente desnuda y cubierta por pintura roja, así como con mensajes soeces sobre su cuerpo falso.
En concreto, Graphika descubrió un hilo de mensajes en 4chan, foro conocido por permitir barra libre con el discurso del odio y el contenido más ofensivo, en el que se animaba a los participantes a intentar evadir las salvaguardas establecidas por las herramientas generadoras de imágenes por IA, como DALL-E de OpenAI, para poder crear este tipo de contenido contrario a sus políticas. Cabe recordar que la mayoría de herramientas que te permiten crear imágenes a partir de palabras están muy limitadas a la hora de crear imágenes sexuales y de utilizar la imagen de personas reales.
En concreto, en el hilo se pidió a los usuarios que compartieran «consejos y trucos para encontrar nuevas formas de evitar los filtros» y poder crear contenido pornográfico. «Buena suerte, sed creativos», se le decía en uno de los mensajes.
El hilo, poco a poco, se fue llenando de mensajes y resultados en los que los usuarios iban compartiendo sus intentos y creaciones. Algunos consiguieron dar con la tecla, y de ahí salieron las imágenes que se viralizaron en la red a finales de enero y que, a pesar de su retirada, acabaron recibiendo millones de visualizaciones.
De acuerdo con los investigadores, y siempre según recoge el medio estadounidense, la primera imagen de IA sexualmente explícita de Taylor Swift en el hilo de 4chan apareció el 6 de enero. Once días después, las imágenes llegaron a la 'app' de mensajería y Telegram. A los doce días llegaron a X, antes Twitter, y comenzaron a viralizarse entre los usuarios de la red social propiedad de Elon Musk.
Porno falso y famosas
Sea como fuere, esta no es la primera vez que la inteligencia artificial le juega una mala pasada a Taylor Swift. Pero vamos, ni mucho menos. En internet hay contenido mucho más explícito y dañino que el creado por los usuarios de 4Chan y que tiene a la cantante como protagonista. Cualquier persona que lo quiera puede comprobarlo haciendo unos rápidos ajustes en su buscador, ya sea Google o Bing de Microsoft. Las dos empresas incluso premian este tipo de publicaciones situándolas arriba del todo cuando el ajuste de búsqueda segura está desactivado.
Y Swift tampoco es la única víctima de la tecnología. No es nada complicado encontrar contenido similar de muchas otras 'celebrities' femeninas que cuentan con millones de seguidores, tal y como informó ABC hace escasos días. Tal y como reconocieron a este diario varios juristas, combatir este tipo de contenido puede ser especialmente complicado para la víctima.
Ver comentarios