¿Cómo de fácil es encontrar pornografía falsa en internet? Google y Bing están destacando la de mujeres famosas
'NBC' ha realizado una investigación, corroborada por ABC, en la que se muestra cómo los buscadores de estas empresas muestran entre los principales resultados este tipo de contenido simplemente haciendo un ajuste rápido en el navegador
QUIERAS O NO, ESTE AÑO TE CANSARÁS DE USAR INTELIGENCIA ARTIFICIAL: ASÍ TE CAMBIARÁ LA VIDA
Madrid
Esta funcionalidad es sólo para registrados
Iniciar sesiónLa inteligencia artificial (IA) es capaz de cambiar el mundo. Y para bien. Sin embargo, en malas manos, la tecnología puede generar resultados problemáticos y dañinos. Uno de los mejores ejemplos: la posibilidad de recurrir a herramientas para trucar imágenes falsas e, incluso, crear ... contenido pornográfico. De acuerdo con una investigación realizada por 'NBC', y según ha podido comprobar también ABC, los buscadores de Google y Bing están mostrando imágenes falsas y no consensuadas de mujeres famosas entre los principales resultados en las consultas.
El usuario no tiene por qué ser una gran lumbrera de la informática para comprobarlo. Básicamente, porque, desde hace años, hay mucho contenido generado por IA en la red en el que se pone la cara de famosas en el cuerpo de otras mujeres que están manteniendo relaciones sexuales. Y lo mismo vale para las fotografías.
Para realizar la investigación, 'NBC' desactivó la configuración de búsqueda segura en Google y en Bing, el buscador de Microsoft, que es la que evita que al usuario le aparezcan en los resultados contenido explícito. Tras esto, probó a realizar consultas en las que se introducía el nombre de una famosa acompañado por términos como 'falso', 'deepfake' (que es como se conoce a los montajes en los que se pone la cara de una persona en el cuerpo de un tercero) o 'deepfake pornográfico'.
De acuerdo con el medio, realizó consultas empleando el nombre de 36 'influencers' femeninas diferentes. En 34 de las búsquedas realizadas, Google mostró contenido pornográfico falso y no consensuado entre los principales resultados. En el caso de Bing, el total fue de 35. Entre los enlaces mostrados también se ofrecía acceso a algunos sitios web dedicados, en concreto, al almacenamiento de este tipo de contenido o a su creación.
ABC ha realizado el mismo procedimiento y el resultado ha sido prácticamente calcado. Los buscadores se configuraron de la misma forma, desactivando la búsqueda segura, y se consultaron los nombres de diez de las 'influencers' femeninas más conocidas. Prácticamente, en todos los casos ha salido contenido pornográfico 'fake' entre los principales resultados. También pasa lo mismo, si, por ejemplo, se escribe en el buscador 'celebrity deepfake' u otros términos más generales. En estos casos, todo el contenido que aparece en primeras posiciones sigue siendo de esta clase.
Este periódico, como 'NBC', también buscó imágenes de este tipo protagonizadas por cantantes y actrices que, aunque llevan tiempo siendo mayores de edad, comenzaron a ser conocidas siendo menores. En algunos de los resultados, los rostros empleados en los montajes parecen ser de cuando todavía no habían cumplido los 18 años.
Difícil de perseguir
Sea como fuere, como explica a este diario el jurista experto en asuntos digitales Sergio Carrasco Mayans, perseguir este tipo de contenido es muy complicado: «Los buscadores tienen una exclusión de responsabilidad para aquellos contenidos de los que no tienen conocimiento. Eso quiere decir que no son responsables hasta que alguien les indica el contenido ilegal para que lo retiren. En caso de no retirarlo en plazo sí que serían responsables».
El jurista remarca que los creadores de herramientas capaces de crear este contenido tampoco son responsables «en principio» por las creaciones realizadas por sus máquinas si no han sido diseñadas con ese propósito concreto. La cosa cambia en el caso de los usuarios humanos que crean el contenido: «En este caso, si la afectada es menor hablaríamos de pseudopornografía infantil. En caso contrario, de derecho al honor e integridad moral de la persona».
En un comunicado, Google señala que entiende «lo angustiante que puede ser este contenido para las personas afectadas» y que está «trabajando activamente para brindar más protección»: «Como cualquier motor de búsqueda, Google indexa el contenido que existe en la web, pero diseñamos activamente nuestros sistemas de clasificación para evitar sorprender a las personas con contenido explícito o dañino inesperado que no están buscando».
La empresa también ha añadido nuevas herramientas para combatir este contenido. Como, por ejemplo, la eliminación de duplicados de las imágenes de pornografía falsa denunciadas y retiradas de la plataforma y el lanzamiento de una clasificación que limita significativamente la visibilidad de las deepfakes explícitas «para las consultas que no buscan ese contenido».
Sea como fuere, según remarca a este periódico Borja Adsuara, abogado también experto en cuestiones tecnológicas, los buscadores pueden hacer mucho más para evitar este tipo de resultados. «Con las webs pirata en su momento consiguieron reducir su aparición en las consultas de los usuarios». También remarca que «la práctica totalidad de las deepfakes son ilegales, porque se realizan sin consentimiento». Por tanto, es igual si el usuario está intentando encontrar ese contenido o no. Va a seguir siendo ilegal.
Mientras tanto, desde Microsoft señalan a este periódico que la distribución de imágenes íntimas no consensuadas "es una grave violación de la privacidad y la dignidad personal con efectos devastadores para las víctimas". La empresa prohíbe la publicación de este contenido en sus plataformas y servicios. Como Google, cuenta con un formulario para que los usuarios puedan denunciar cuando detectan este tipo de imágenes o vídeos.
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para registrados
Iniciar sesiónEsta funcionalidad es sólo para suscriptores
Suscribete