El nuevo truco de Facebook para saber qué vídeos son 'deepfake' y cómo se han creado
La red social acaba de compartir los resultados de una investigación en la que han colaborado con la Universidad de Michigan

El ' deepfake ', esa tecnología que permite aleterar el rostro y la voz de una persona mediante el uso de un software, no solo es una de las soluciones más virales de los últimos años. También es uno de los principales peligros a los ... que nos enfretamos dentro del campo de la ciberseguridad. Facebook, en colaboración con investigadores de la Universidad de Michigan (EE.UU.), ha desarrollado un método que no solo permite detectar contenido de este tipo, también la herramienta que se ha empleado para su creación .
«Nuestro método de ingeniería inversa se basa en descubrir los patrones únicos detrás del modelo de IA (Inteligencia Artificial) utilizado para generar una sola imagen deepfake. Comenzamos con la atribución de imágenes y luego trabajamos para descubrir las propiedades del modelo que se utilizó para generar la imagen. Al generalizar la atribución de imágenes al reconocimiento de conjuntos abiertos, podemos inferir más información sobre el modelo generativo utilizado para crear uno», explican Xi Yin y Tal Hassner, dos de los investigadores detrás de la solución.
Para conseguir su objetivo, el equipo de investigación comienza ejecutando una imagen 'deepfake' a través de una red de estimación de huellas dactilares (FEN), que les permite encontrar las marcas que deja el algoritmo que se ha empleado para cambiar la imagen . «Las huellas dactilares del dispositivo son patrones sutiles pero únicos que se dejan en cada imagen producida por un dispositivo en particular debido a imperfecciones en el proceso de fabricación. En fotografía digital, las huellas dactilares se utilizan para identificar la cámara digital que se utiliza para producir una imagen», explican desde el equipo de investigación. Una vez que el software localiza las huellas, estas se comparan con los distintos modelos generativos de ‘deepfake’ capaces de crear estas imágenes.
Para probar el enfoque, el equipo de investigación de la universidad estadounidense reunió un conjunto de datos de imágenes falsas con 100.000 imágenes sintéticas generadas a partir de 100 modelos disponibles públicamente.
«Cada uno de los 100 modelos generativos corresponde a un proyecto de código abierto desarrollado y compartido por investigadores de toda la comunidad científica. Algunos de los proyectos de código abierto ya tenían imágenes falsas publicadas, en cuyo caso el equipo de investigación de MSU seleccionó al azar 1.000 imágenes. En los casos en que el proyecto de código abierto no tenía imágenes falsas disponibles, el equipo de investigación ejecutó su código publicado para generar 1.000 imágenes sintéticas», destacan los investigadores.
De acuerdo con los resultados compartidos por Facebook, el modelo de su equipo mejora los niveles de detección de 'deepfakes' de los sistemas tradicionales . Además de que, como hemos dicho, en este caso es posible comprobar cuál fue la herramienta que se empleo para crearlos. «Este trabajo brindará a los investigadores y profesionales herramientas para investigar mejor los incidentes de desinformación coordinada utilizando 'deepfakes', y abrirá nuevas direcciones para futuras investigaciones», completan desde el equipo de investigación.
Un riesgo para la ciberseguridad
Los expertos en ciberseguridad llevan años llamando la atención sobre el riesgo que representan los 'deepfakes'. Por lo pronto, esta tecnología fue empleada en 2019 para que un grupo de cibercriminales consiguiese robar a una empresa británica más de 200.000 euros empleando software para copiar la voz de su director ejecutivo. Asimismo, el pasado marzo ' BBC ' se hacía eco del supuesto empleo de esta tecnología por parte de una mujer estadounidense para difamar a un grupo de compañeras de instituto de su hija.
«Para realizar un deepfake solo hace falta emplear una tecnología super sencilla que en estos momentos está a disposición de todo tipo de usuarios. Además, tiene mucho potencial, tanto como para cosas divertidas como para hacer el mal», dice a este diario Enrique Domínguez, director de estrategia de la empresa de ciberseguridad Entelgy Innotec.
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para suscriptores
Suscribete