Hazte premium Hazte premium

Deepfake, la nueva amenaza para la democracia y las empresas está al alcance de cualquiera

Con el paso de los años, y el desarrollo de la tecnología, cada vez son más los usuarios capaces de crear contenido audiovisual falso de buena calidad

Así te van a atacar los cibercriminales en 2020

Rodrigo Alonso

Esta funcionalidad es sólo para registrados

Imagine que está navegando por internet y, de repente, encuentra una noticia en cuyo titular se afirma que el líder de Vox , Santiago Abascal , está a favor de realizar un referéndum de autodeterminación en Cataluña . Que, una vez superado el pasmo inicial, hace «click» y encuentra que, junto al cuerpo del artículo, va adjunto un vídeo en el que aparece el diputado reafirmándose en la importancia de que los catalanes decidan su futuro y, si lo desean, se conviertan en un Estado autónomo. Parece increíble, ¿verdad? Cosa de ciencia ficción.

Pues bien, el principal problema, más allá de que el vídeo sea falso, que atendiendo a la trayectoria de Abascal, sin duda, lo es; lo encontramos cuando nos damos cuenta de que no hace falta ser una lumbrera de la informática para poner al líder político de turno a decir cualquier cosa . Y es que la creación de «deepfakes » está cada vez al alcance de más usuarios. De hecho, la firma de ciberseguridad danesa Deeptrace, en un estudio publicado en octubre del año pasado, señalaba que el fenómeno de los ultrafalsos estaba creciendo rápidamente y que durante los siete primeros meses de 2019 habían detectado 14.678, un número que casi duplicaba el del periodo precedente.

«Los deepfakes son falsificaciones de material de vídeo o audio cuyo alto nivel técnico los hace creíbles. Utilizando este tipo de tecnología, es posible crear material audiovisual falso de personalidades o gente famosa con contenido completamente arbitrario. Se ha ido publicando software que facilita más su creación y verosimilitud. Hoy en día, cualquier usuario puede comenzar a crear este tipo de vídeos con relativa facilidad y resultados bastante aceptables», explica a ABC David Sancho , responsable del equipo de investigación de la empresa de ciberseguridad Trend Micro .

El experto añade que «los creadores de este tipo de software han ido refinando las capacidades y muchos de ellos lo han hecho open source (de libre acceso), de tal modo que cualquiera puede acceder a la herramienta de manera gratuita». Por su parte, desde la firma de seguridad Panda temen las posibles consecuencias de estas herramientas en manos de las personas malintencionadas: «Las falsificaciones son tan precisas que en 2020 podrían llegar a er indistinguibles para una persona. Cuando llegue ese momento, será necesario que tengamos dispositivos que lo detecten para evitar fraudes telefónicos, fake news y todo tipo de trampas en las que nos puedan engañar suplantando la identidad de alguien famoso o de una persona de nuestro entorno más cercano», añaden fuentes de la empresa.

Un riesgo político

Los «deepfakes» comenzaron a llamar especialmente la atención en el año 2016. Fue entonces cuando la Universidad de Washington realizó un experimento, nombrado como «Synthesizing Obama» , en el que se cambiaba la voz del expresidente de Estados Unidos Barack Obama para afirmar que el actual dirigente del país norteamericano, Donald Trump , «es un total y completo idiota».

Tan solo un año después, aparecieron en internet una serie de vídeos pornográficos en los que, gracias al empleo de esta tecnología, se había cambiado los rostros de las actrices originales por los de algunas de las figuras más exitosas del cine y la televisión. Desde Gal Gadot , que próximamente estrenará la segunda cinta de « Wonder Woman », hasta Maisie Williams , Arya Stark en « Juego de Tronos ». «Es imposible intentar detener a quienes cortan y pegan mi imagen (o la de cualquier otra persona) a un cuerpo diferente. Protegerte de internet y de su naturaleza depravada es una causa perdida», explicaba en declaraciones a «The Washington Post» Scarlett Johansson , otra de las actrices afectadas.

Otro buen ejemplo de lo que es posible con este tipo de tecnología lo encontramos el pasado mes de mayo, cuando comenzó a circular un vídeo en el que se había trucado la voz de la presidenta de la Cámara de Representantes de Estados Unidos, Nancy Pelosi . El objetivo era aparentar que la política demócrata se encontraba en estado de embriaguez. Y el engaño caló. Incluso fue compartido por Donald Trump a través de Twitter.

La preocupación por lo que podría suponer el uso de deepfakes, especialmente si tenemos en cuenta las próximas elecciones a la presidencia de Estados Unidos, ha provocado que algunas de las grandes plataformas de internet se hayan arremangado para construir un muro de contención. El mejor ejemplo, posiblemente, es el de Facebook .

La empresa de Mark Zuckerberg lleva años tratando de reponerse del escándalo de Cambridge Analytica . El último paso ha sido el de reforzar sus políticas para identificar y eliminar los vídeos alterados . El pasado mes de septiembre, la tecnológica lanzó un programa, llamado Deep Fake Detection Challenge , destinado a que usuarios de todo el mundo colaboren en la búsqueda de contenido manipulado. Una política que, según anunció la red social, se ha visto reforzada hace unos días .

Y si preocupa la limpieza de las próximas eleciones presidenciales, no lo hace menos la seguridad nacional. «¿Qué pasa si alguien crea un video del presidente Trump diciendo: "He lanzado armas nucleares contra Irán, Corea del Norte o Rusia?" No tenemos horas o días para determinar si es real o no», explicaba hace unos meses en declaraciones a la cadena norteamericana « CBS » el profesor de ciencias de la computación de la Universidad de Berkeley (California) Hany Farid. El experto, al igual que Sancho, hizo hincapié en que se debe entender que los deepfakes «no están en manos de unos pocos, están en manos de muchos».

Las empresas, también en el punto de mira

El responsable de investigación de Trend Micro apunta a las empresas como otro de los principales objetivos de este tipo de contenido: «Un vídeo con declaraciones falsas de un empresario puede mover las acciones de su empresa, o de otras asociadas, hacia arriba o hacia abajo». Sancho pone como ejemplo sus posibilidades como parte del timo del CEO . Una estafa en la que los cibercriminales, valiéndose de ingeniería social , suplantan a un directivo de una empresa para lograr algún tipo de beneficio contactando con sus empleados, normalmente económico.

«Ya existen casos en los que los ciberdelincuentes han utilizado las deepfakes con éxito en este campo. En 2019 aparecieron noticias de ciberdelincuentes que habían utilizado una voz generada por IA en ingeniería social. La organización afectada fue una compañía de energía que fue víctima de un fraude de 243.000 dólares en el que los estafadores utilizaron Inteligencia Artificial para imitar la voz del CEO de la empresa, tal y como publicaba The Wall Street Journal », dice el experto de Trend Micro. A su vez, resalta que los deepfakes ofrecen «muchas otras posibilidades» gracias al elemento audiovisual «que da más credibilidad a sus planes». Y es que este fraude, como todos los demás, se beneficia de una tecnología que avanza a ritmo vertiginoso. Un crecimiento que no solo mejora las condiciones de vida de la sociedad. También hace que las armas de los cibercriminales mejoren y resulten más asequibles .

Esta funcionalidad es sólo para suscriptores

Suscribete
Comentarios
0
Comparte esta noticia por correo electrónico

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Reporta un error en esta noticia

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Muchas gracias por tu participación