Los escudos inteligentes que combaten el virus del engaño de los 'deepfakes'
Las empresas perfeccionan la tecnología para detectar con precisión esos eficaces aliados del fraude que son las imágenes manipuladas con aprendizaje profundo
Madrid
Esta funcionalidad es sólo para registrados
Iniciar sesiónOcho millones de seguidores tiene la cuenta de TikTok que publica vídeos de un falso Keanu Reeve. La de un irreal Tom Cruise que tan pronto baila como toca la guitarra acumula casi cuatro millones. Y el clip de Barack Obama en el que asegura ... que Donald Trump es un idiota supera los nueve millones de visualizaciones en YouTube. Estos son solo algunos ejemplos de lo que las técnicas de aprendizaje profundo ('deep learning'), que utilizan algoritmos de redes neuronales, son capaces de hacer para engañar al ojo humano con contenidos sintéticos.
Las primeras creaciones eran bastante burdas, pero lo cierto es que el avance tecnológico ha perfeccionado los resultados y hoy son difícilmente identificables para el común de los mortales, algo que genera preocupación, ya que pueden emplearse no solo para bromas inofensivas o acciones de marketing, como el anuncio de Cruzcampo que 'revive' a Lola Flores, sino con fines maliciosos. El FBI es uno de los organismos que ha alertado sobre los peligros de este fenómeno, al detectar un aumento de casos en que los ciberdelincuentes se hacen pasar por otros mediante 'deepfakes' para obtener un puesto de trabajo en remoto. Y el 96% de los vídeos falsos que circulan en la red son de carácter pornográfico, según cálculos de la empresa de ciberseguridad Deeptrace.
A la vista de los peligros que entrañan, compañías y centros de investigación de todo el mundo trabajan en el desarrollo de plataformas que actúen como un escudo frente a los 'deepfakes'. Y es que, igual que la inteligencia artificial (IA) sirve para crear estas manipulaciones en formato audiovisual, también puede ser una solución para combatirlas.
Los peligros detrás de la IA que crea imágenes en segundos
Rodrigo AlonsoExpertos alertan de que podría utilizarse para crear 'fake news', contenido explícito y fomentar sesgos
Intel es uno de los gigantes empresariales que se ha puesto manos a la obra. Esta misma semana ha presentado FakeCatcher, un detector de 'deepfakes' en tiempo real con una tasa de precisión del 96% que analiza el flujo sanguíneo en píxeles de vídeo para determinar la autenticidad en milisegundos. «Cuando nuestros corazones bombean sangre, nuestras venas cambian de color. Estas señales de flujo sanguíneo se recogen de toda la cara y los algoritmos las traducen en mapas espaciotemporales. Luego, utilizando 'deep learning', podemos detectar instantáneamente si un vídeo es real o falso», explica la firma en un comunicado. Microsoft, por su parte, cuenta con una herramienta, Microsoft Video Authenticator, que funciona con inteligencia artificial y proporciona el porcentaje de probabilidad de que se trate de un contenido manipulado. Facebook es otra de las que ha dado pasos en esa línea y, gracias a un acuerdo con la Universidad de Michigan (EE.UU.), ha desarrollado un método de ingeniería inversa para detectar contenido de este tipo y la herramienta empleada para su creación.
En España existen entidades que investigan las oportunidades y amenazas que se abren en este campo. Vicomtech, centro tecnológico vasco especializado en inteligencia artificial, está muy orientado a la transferencia y apoya a las empresas y a la sociedad en su lucha contra la suplantación de identidad. Unai Elordi Hidalgo, investigador especializado en 'deepfake' e inteligencia artificial, explica que, gracias a la tecnología, pueden detectar si una imagen se ha creado sintéticamente. «Nos fijamos en aspectos como que haya diferentes brillos o fallos en la distribución del color. También hacemos un control de los gestos faciales», subraya.
Si una corporación dispone de un software de reconocimiento facial para darse de alta en un banco, por ejemplo, lo que hacen desde Vicomtech es incluir nuevos módulos para asegurarse de que no se trata de un vídeo pregrabado. «Se realiza una autenticación activa, de modo que el sistema indica al usuario cómo se tiene que mover. Asimismo, analiza si está manteniendo la mirada consistentemente», detalla. «Realmente no tenemos un producto, sino que ayudamos a las empresas a que, en vez de tener que asumir por sí mismas el riesgo tecnológico de montarlo todo, les pasamos una interfaz de programación de aplicaciones (API, por sus siglas en inglés) gracias a la que pueden usar este tipo de tecnologías», comenta.
Además de las herramientas automáticas, cree que es importante que el público en general sepa en qué reparar para distinguir los videomontajes. «Hay que fijarse en el color de la piel, en el pestañeo, en el brillo de los ojos y en la geometría del pelo, que es muy complicada de representar, por lo que la zona de la barba puede estar difuminada», apunta. En el 'deepfake' en el que aparece un falso Zelenski pidiendo la rendición de sus tropas, dice, hay aspectos que invitan a desconfiar, como que el fondo sea totalmente opaco y que el supuesto presidente ucraniano tenga la mirada perdida.
Enrique Domínguez, director de Estrategia de Entelgy Innotec Security, señala que si bien existen mecanismos que pueden dar certezas respecto a si la persona que aparece en el vídeo es real o no, al mismo tiempo los creadores de estos contenidos sofistican sus técnicas. De hecho, el 74% de los responsables de TI piensa que los 'deepfakes' constituyen una amenaza para la seguridad de su organización, de acuerdo a un informe de Entelgy.
«No están dándose ataques muy diferentes a los que había antes, pero se está utilizando la tecnología para hacerlos más realistas y que su tasa de éxito sea mayor», destaca. Una problemática que se pone de manifiesto en el conocido como fraude del CEO, en el que un estafador se hace pasar por un alto cargo de la compañía para engañar a los trabajadores y que realicen transferencias desde la cuenta de la empresa a la del cibercriminal. «Antes un vídeo era una prueba irrefutable, pero ahora tenemos que sospechar ante cualquier petición inusual», recomienda Domínguez. Los expertos hablan de que se ha desatado una especie de juego del gato y el ratón, pues la inteligencia artificial que se aplica con fines delictivos también sirve a las empresas de ciberseguridad para detectarlos.
Encontrar patrones
«Para crear un 'deepfake' se necesitan multitud de imágenes de una persona a partir de las que se encuentran patrones en sus gestos que el modelo de inteligencia artificial simula», comienza por explicar Andrés Visus, profesor de Esic y director de desarrollo de negocio en PredictLand, empresa especializada en soluciones de inteligencia artificial. Para saber que el contenido en cuestión es ficticio, se recurre a esa misma tecnología. «Hacen falta muchos vídeos falsos para que los propios modelos de inteligencia artificial encuentren patrones que no ven en los reales», afirma. El proceso se facilita si se analizan simultáneamente vídeo y audio, debido a que los modelos de inteligencia artificial con técnicas de 'deep learning' detectan que no hay correlación entre el sonido y los movimientos de la boca del individuo.
En el caso de las noticias falsas, ya hay empresas españolas que trabajan en la creación de herramientas para su identificación, poniendo coto así a la desinformación. La startup madrileña Aygloo, por ejemplo, participa en un proyecto de I+D financiado por el CDTI en el que colaboran la agencia Europa Press y la Universidad Politécnica de Madrid. Comenzó en el primer trimestre del año y se prevé que la solución esté preparada en mayo de 2023. «Europa Press nos pidió una herramienta de 'fake news' que diga si la noticia es falsa o no, pero también diga por qué y, además, que pueda ser utilizada por periodistas, sin necesidad de preguntar a un científico de datos», cuenta Ignacio Gutiérrez Peña, cofundador y CEO.
Para ello, aplican técnicas avanzadas de inteligencia artificial. «La noticia se clasifica en función de categorías (gobierno central, comunidades autónomas, sanidad, deporte, etc.) y se lleva a cabo el reconocimiento de entidades, es decir, de quién se habla», indica. El siguiente paso es el análisis semántico de las frases, viendo similitudes y contradicciones con otros textos. «'La tierra es plana' semánticamente es muy similar a 'la tierra no es plana', pero son contradictorias. Se hace el análisis semántico y se contrasta con bases de datos de noticias ya verificadas», explica. También se fijan en si la noticia habla de algo que nadie más habla. «Que Guardiola fiche por el Real Madrid llamaría la atención, así que se identifican las fuentes porque un periódico tiene más veracidad que si circula por Twitter», justifica. Con todo, el sistema concluye que la noticia puede ser veraz con un determinado porcentaje y aporta las razones. «El sistema no reemplaza al periodista, sino que le ayuda a tomar la decisión». Más adelante, la startup aplicará sus conocimientos en la materia para la detección de vídeos falsos.
Regulación
Desde el punto de vista regulatorio, el abogado experto en derecho digital Borja Adsuara recuerda que en la Unión Europea está tramitándose una propuesta de reglamento de inteligencia artificial que considera los 'deepfakes' como IA de alto riesgo porque pueden perjudicar a terceros, por lo que están sujetos a unas determinadas obligaciones de transparencia. «Si es para hacer bromas o por libertad de creación artística, con tal de que se diga que es 'deepfake' no pasa nada», asegura. El problema surge cuando, por ejemplo, se fusionan caras de celebridades en escenas pornográficas, en cuyo caso se incurriría en un delito contra el honor y la propia imagen.
MÁS INFORMACIÓN
«Nunca se regulan tecnologías, sino los resultados y la intención», dice. Al margen de delitos tipificados en el Código Penal, estos montajes se enfrentan a una intromisión ilegítima en el derecho a la propia imagen que tiene una protección civil si usan la imagen de alguien sin su consentimiento. «E incluso a la Ley de Protección de Datos porque la imagen es un dato», añade. Por último, la Ley de Propiedad Intelectual entraría en juego si fusionan la imagen de una persona en la escena de una película sin el permiso de los dueños, que pueden sentirse perjudicados en su copyright. «No hay que hacer una ley específica para los 'deepfakes', pues los distintos aspectos ya están regulados en otras leyes», concluye.
El fenómeno 'deepfake' es imparable pero aquellos que lo usen con fines maliciosos tendrán que enfrentarse no solo a consecuencias legales sino a una inteligencia artificial que, cada vez más, aprende a reconocerlos.
Límite de sesiones alcanzadas
- El acceso al contenido Premium está abierto por cortesía del establecimiento donde te encuentras, pero ahora mismo hay demasiados usuarios conectados a la vez. Por favor, inténtalo pasados unos minutos.
Has superado el límite de sesiones
- Sólo puedes tener tres sesiones iniciadas a la vez. Hemos cerrado la sesión más antigua para que sigas navegando sin límites en el resto.
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para registrados
Iniciar sesiónEsta funcionalidad es sólo para suscriptores
Suscribete