Suscribete a
ABC Premium

Teorías conspirativas y rendiciones 'fallidas': los 'deepfakes' ya son armas en tiempos de guerra

No es necesario esperar veinte años para analizar el peligro del uso de la IA en los conflictos armados. Basta echar un vistazo en X para ver miles de videos e imágenes trucadas sobre la guerra de Ucrania o el actual conflicto en Gaza

Un grupo de investigadores afirma que la opinión pública y la reputación de los medios se ven influidos y perjudicados por estos contenidos ficticios

La IA ya nos engaña también con las voces: el ser humano no es capaz de detectar con fiabilidad los 'deepfakes' de audio

Cada vez se producen más 'deepfakes' con la intención de influir en la opinión pública ABC
Javier Palomo

Esta funcionalidad es sólo para registrados

En la red hay que andar con pies de plomo y dudar, prácticamente, de cualquier publicación que intente remover los sentimientos de los usuarios. Más, si cabe, cuando el vídeo, imagen o tuit hace referencia a un conflicto armado como la invasión de Ucrania o ... la guerra de Israel en Gaza. En cualquier momento, uno de estos contenidos puede consistir en un 'deepfake', un montaje realizado con inteligencia artificial (IA), donde la ficción imita la realidad con un grado de detalle casi perfecto y con un margen de error minúsculo para el ojo que no esté entrenado en diferenciarlos.

Artículo solo para suscriptores

Esta funcionalidad es sólo para suscriptores

Suscribete
Comparte esta noticia por correo electrónico
Reporta un error en esta noticia