Teorías conspirativas y rendiciones 'fallidas': los 'deepfakes' ya son armas en tiempos de guerra

No es necesario esperar veinte años para analizar el peligro del uso de la IA en los conflictos armados. Basta echar un vistazo en X para ver miles de videos e imágenes trucadas sobre la guerra de Ucrania o el actual conflicto en Gaza

Un grupo de investigadores afirma que la opinión pública y la reputación de los medios se ven influidos y perjudicados por estos contenidos ficticios

La IA ya nos engaña también con las voces: el ser humano no es capaz de detectar con fiabilidad los 'deepfakes' de audio

Cada vez se producen más 'deepfakes' con la intención de influir en la opinión pública ABC

En la red hay que andar con pies de plomo y dudar, prácticamente, de cualquier publicación que intente remover los sentimientos de los usuarios. Más, si cabe, cuando el vídeo, imagen o tuit hace referencia a un conflicto armado como la invasión de Ucrania o ... la guerra de Israel en Gaza. En cualquier momento, uno de estos contenidos puede consistir en un 'deepfake', un montaje realizado con inteligencia artificial (IA), donde la ficción imita la realidad con un grado de detalle casi perfecto y con un margen de error minúsculo para el ojo que no esté entrenado en diferenciarlos.

En estos, se moldea una 'cara' falsa construida por inteligencia artificial, que se fusiona con un vídeo auténtico, con el fin de recrear un acontecimiento que nunca tuvo lugar realmente. Aunque falsos, pueden parecer convincentes y a menudo se producen para imitar o burlarse de una persona. O al menos esas eran sus intenciones al comienzo.

Desde hace un tiempo los 'deepfakes' se usan como armas para influir en la opinión publica de grandes guerras. El conflicto ruso-ucraniano fue el primer ejemplo real de uso de 'deepfakes', según explican los investigadores de un estudio llevado a cabo por la University College Cork (UCC). En el trabajo, que se publica hoy en la revista PLOS ONE, examinaron tuits de 2022 sobre la invasión, en lo que constituye el primer análisis del uso de 'deepfakes' en la desinformación y la propaganda bélica. «Gran parte de la investigación previa sobre 'deepfakes' se ha centrado en los posibles daños futuros de la tecnología. Sin embargo, nosotros nos hemos centrado en cómo estos vídeos e imágenes trucados ya están afectando a las redes sociales, como hemos visto durante la invasión rusa de Ucrania», detallan en la investigación.

La 'rendición' de Zelenski o la 'paz' de Putin

En el estudio se analizaron cerca de 5.000 tuits en X (antes Twitter) en los primeros siete meses de 2022 para explorar cómo reacciona la gente ante los contenidos 'deepfake' en línea y descubrir pruebas de los perjuicios que causan a la confianza. Descubrieron grandes debates, casi 'batallas campales' en la red, reaccionando a los montajes. Por un lado, algunos expresaban preocupación, conmoción o confusión por las noticias. Otros, en cambio, reaccionaron positivamente a los montajes, especialmente contra aquellos que consideraban sus «rivales políticos».

Uno de los casos más sonados fue el 'deepfake' que presentaba falsamente al presidente ucraniano Volodímir Zelenski rindiéndose a Rusia. Un vídeo publicado en el medio 'Ucrania 24', tras sufrir un ataque de unos ciberdelincuentes, que aprovecharon el momento para colgar el mensaje. Lo mismo sucedió con Vladimir Putin meses más tarde, en un vídeo emitido en varias cadenas rusas tras un hackeo, donde el presidente proclamaba la paz y el alto el fuego con Ucrania.

«No hay pruebas de que los propios gobiernos —ucraniano o ruso— hayan creado los 'deepfakes', pero queda claro que detrás de ellos hay motivaciones políticas para influir en el desarrollo del conflicto», explica para ABC John Twomey, investigador principal del estudio. Prueba de ello es el 'Fantasma de Kiev', el que fue el mayor 'deepfake' propagandístico que se realizó en el conflicto, y se creó al comienzo del mismo.

Cuando comenzaron los primeros bombardeos rusos, un usuario de Twitter vendió la historia de que un piloto ucraniano estaba defendiendo el país como si se tratase de un lobo solitario, atacando y derribando a más de seis cazas rusos por su cuenta. Toda la historia, además de las supuestas imágenes del 'Fantasma de Kiev', eran falsas. Se habían utilizado escenas de videojuegos e imágenes trucadas de otros soldados ucranianos para recrear un héroe de guerra falso.

Un chute para las teorías conspirativas

Además, el estudio ha revelado que los 'deepfakes' ayudan a engendrar y cultivar teorías conspirativas y un escepticismo malsano. «Los usuarios ponen en duda cualquier anuncio político, y cuando ven algún gesto o movimiento extraño, piensan que son un doble o directamente un vídeo falso, y que los gobiernos por ejemplo están ocultando la enfermedad o muerte de sus líderes políticos», detalla Twomey.

Menciona el caso de un vídeo de Putin donde su mano parecía atravesar un micrófono, cuando en realidad se trataba de error por la calidad del vídeo, a lo que se le denomina un 'artefacto'. «Hubo gente en Internet que afirmó que se trataba de un 'deepfake' y que Putin estaba ocultando una enfermedad. Por supuesto, el vídeo era real y la mano no atravesaba nada».

Del mismo modo, observaron cómo los usuarios acusaban falsamente un vídeo de Biden de ser un 'deepfake', donde se le veía con una mirada aparentemente extraña. «comentaban que el presidente tenía la mirada del valle inquietante, como si fuese un robot», explica Twomey.

Luchar contra los bulos de la IA

Las consecuencias de esta intromisión en la verdad son claras para los investigadores: los usuarios desconfían de las publicaciones de las redes, se radicalizan con un bando u otro y dudan de la veracidad de los medios de comunicación. «Llega un momento que dudan completamente de cualquier imagen del conflicto», explican en el trabajo. «Investigadores y periodistas temen desde hace tiempo que los 'deepfakes 'tengan el potencial de socavar la verdad, difundir desinformación y minar la confianza en la veracidad de los medios informativos. Su mayor peligro es la capacidad para alterar lo que sabemos que es verdad cuando los vídeos falsos se creen auténticos y viceversa», afirma el doctor Conor Linehan, de la Facultad de Psicología Aplicada de la UCC.

Por ello, apuntan a que se debe luchar contra los bulos de la IA educando a la gente sobre qué son los 'deepfakes', cuál es su potencial y cuáles son sus capacidades actuales y cómo evolucionarán en los próximos años.

Artículo solo para suscriptores

Accede sin límites al mejor periodismo

Tres meses 1 Al mes Sin permanencia Suscribirme ahora
Opción recomendada Un año al 50% Ahorra 60€ Descuento anual Suscribirme ahora

Ver comentarios