OpenAI reconoce que los cibercriminales usan ChatGPT para apoyar la creación de malware
Con este análisis la empresa pretende comprender las distintas formas en que los actores maliciosos utilizan los modelos avanzados de IA para anticiparse y planificar nuevas regulaciones
La empresa matriz de Lidl denuncia que se han disparado los ciberataques diarios y confirma que la mayoría provienen de Rusia

OpenAI ha expresado que los cibercriminales utilizan su modelo de lenguaje grande GPT, para crear un 'sotfware' malicioso con el apoyo de la inteligencia artificial(IA). Los objetivos estudiados en este caso, se encuadran en ataques promovidos por China e Irán a otros países que buscan crear y difundir contenidos en las redes sociales.
La empresa ha expresado que ha interrumpido más de 20 operaciones maliciosas y redes dedicadas al engaño que han intentado utilizar sus modelos. Además ha aseverado que a las actividades conocidas, se unen capítulos relacionados con la redacción de publicaciones para redes sociales para depurar el 'malware'.
Con este análisis, OpenAI pretende comprender las distintas formas en que los actores maliciosos utilizan los modelos avanzados de IA con fines peligrosos, para anticiparse y planificar adecuadamente las medidas de aplicación de la ley.
En este contexto, la compañía ha comprobado que los cibercriminales usan los modelos de IA «para realizar tareas en una fase específica e intermedia de actividad», tras haber adquirido herramientas básicas como cuentas de redes sociales y correos electrónicos, pero antes de «desplegar productos acabados», como pueden ser las publicaciones de redes sociales y los programas maliciosos.
En cualquier caso, OpenAI indica que aunque los actores maliciosos usan sus modelos, no han detectado que este uso se haya traducido en importantes capacidades para explotar vulnerabilidades en el mundo real.
La implicación de China e Irán en los casos estudiados
Uno de los análisis realizados es el de SweetSpect, un grupo de amenazas de origen chino que utilizó los modelos de OpenAI «para respaldar sus operaciones cibernéticas ofensivas y al mismo tiempo realizar ataques de phishing» que dirigió contra los empleados de la compañía tecnológica, haciéndose pasar por un usuario de ChatGPT que buscaba ayuda del sorporte técnico, para infectar sus equipos y controlarlos.
Por su parte, el actor iraní STORM-0817 utilizó los modelos de IA para depurar el código y obtener asistencia en la programación de un nuevo 'malware' para Android todavía en desarrollo y «relativamente rudimentario», con capacidades estándar de vigilancia. También uso ChatGPT para implementar la infraestructura de comando y control.
OpenAI también ha asegurado que, en un año en que más de 2.000 millones de personas están llamadas a participar en procesos electorales en 50 países de todo el mundo, no han observado «ningún caso de operaciones de influencia relacionadas con las elecciones que atraigan participación viral o construyan audiencias sostenidas» con el uso de sus modelos de IA.
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para suscriptores
Suscribete