fotolia

¿Puede una Inteligencia Artificial detectar en internet imágenes de abuso sexual infantil? Google cree que sí

Una nueva herramienta desarrollada por el gigante de internet en colaboración con ONG promete «identificar rápidamente imágenes» de este tipo incluso si «no han sido catalogadas previamente»

MADRIDActualizado:

La Inteligencia Artificial (IA) se ha situado en la parrilla de salida de las nuevas tecnologías. La pista de despegue del futuro. Es el candente clavo al que se han agarrado las empresas del sector en los últimos años para potenciar sus servicios digitales cotidianos, aunque técnicamente no se haya alcanzado aún una autonomía real. Pero les sirve para mejorar los comportamientos de las herramientas que se emplean diariamente.

El último intento de Google de combatir la difusión de material que contiene imágenes o videos de abuso sexual infantil en internet se apoya en la IA. Una nueva herramienta desarrollada por el gigante de internet promete «identificar rápidamente imágenes» de este tipo -que supone un delito en muchos estados- incluso si «no han sido catalogadas previamente».

Esta herramienta, que promete detectar hasta un 700% más de contenido de este tipo durante el mismo período de tiempo que los sistemas clásicos, forma parte de una colaboración entre la multinacional estadounidense y diversas ONG especializados en este problema. «Mediante el uso de redes neuronales profundas que procesan las imágenes, a partir de ahora podemos ayudar a los revisores a ordenar las imágenes priorizando el contenido de este tipo», explica en un comunicado Nikola Todorovic, director de ingeniería de Google.

La clave de este sistema es que la criba de unas imágenes y otras se realiza de manera automática, acelerando todo el proceso y reduciendo, señala la compañía, el «número de personas que deben estar expuestas a ellas, un trabajo que puede derivar en graves consecuencias psicológicas». La base es que, una vez marcado el contenido que se puede considerar como «abusivo», el servicio analizará buscará coincidencias y, cuando se localice, el moderador recibirá una alerta para que se centre en su análisis.

Los mecanismos de revisión automática, empleados por diversas compañías del sector como Facebook, han sido objeto de confrontación, sin embargo, dados los resultados dispares en ocasiones y se han revelado como insuficientes para combatir ciertas prácticas en las plataformas sociales como la difusión de bulos y mensajes extremistas.

Pero Google plantea una idea distinta. Si bien los enfoques tradicionales para localizar este contenido se han basado exclusivamente en la comparación con algoritmos conocidos, el clasificador se mantiene actualizado con los supuestos delincuentes al añadir también el contenido que no se ha confirmado previamente como imágenes de pedofilia y abusos sexuales infantiles. «La identificación rápida de imágenes recientes significa que los niños que sufren abusos sexuales en estos momentos tienen muchas más probabilidades de ser identificados y protegidos de nuevos abusos», asegura el ejecutivo de la compañía. El objetivo, apuntan los responsables del proyecto es hacer de internet «un lugar más seguro».