Suscribete a
ABC Premium

OpenAI reconoce que los cibercriminales usan ChatGPT para apoyar la creación de malware

Con este análisis la empresa pretende comprender las distintas formas en que los actores maliciosos utilizan los modelos avanzados de IA para anticiparse y planificar nuevas regulaciones

La empresa matriz de Lidl denuncia que se han disparado los ciberataques diarios y confirma que la mayoría provienen de Rusia

ChatGPT en la pantalla de un móvil y de un ordenador portátil en una imagen de archivo EP

EUROPA PRESS

OpenAI ha expresado que los cibercriminales utilizan su modelo de lenguaje grande GPT, para crear un 'sotfware' malicioso con el apoyo de la inteligencia artificial(IA). Los objetivos estudiados en este caso, se encuadran en ataques promovidos por China e Irán a otros países que buscan crear y difundir contenidos en las redes sociales.

La empresa ha expresado que ha interrumpido más de 20 operaciones maliciosas y redes dedicadas al engaño que han intentado utilizar sus modelos. Además ha aseverado que a las actividades conocidas, se unen capítulos relacionados con la redacción de publicaciones para redes sociales para depurar el 'malware'.

Con este análisis, OpenAI pretende comprender las distintas formas en que los actores maliciosos utilizan los modelos avanzados de IA con fines peligrosos, para anticiparse y planificar adecuadamente las medidas de aplicación de la ley.

En este contexto, la compañía ha comprobado que los cibercriminales usan los modelos de IA «para realizar tareas en una fase específica e intermedia de actividad», tras haber adquirido herramientas básicas como cuentas de redes sociales y correos electrónicos, pero antes de «desplegar productos acabados», como pueden ser las publicaciones de redes sociales y los programas maliciosos.

En cualquier caso, OpenAI indica que aunque los actores maliciosos usan sus modelos, no han detectado que este uso se haya traducido en importantes capacidades para explotar vulnerabilidades en el mundo real.

La implicación de China e Irán en los casos estudiados

Uno de los análisis realizados es el de SweetSpect, un grupo de amenazas de origen chino que utilizó los modelos de OpenAI «para respaldar sus operaciones cibernéticas ofensivas y al mismo tiempo realizar ataques de phishing» que dirigió contra los empleados de la compañía tecnológica, haciéndose pasar por un usuario de ChatGPT que buscaba ayuda del sorporte técnico, para infectar sus equipos y controlarlos.

Por su parte, el actor iraní STORM-0817 utilizó los modelos de IA para depurar el código y obtener asistencia en la programación de un nuevo 'malware' para Android todavía en desarrollo y «relativamente rudimentario», con capacidades estándar de vigilancia. También uso ChatGPT para implementar la infraestructura de comando y control.

OpenAI también ha asegurado que, en un año en que más de 2.000 millones de personas están llamadas a participar en procesos electorales en 50 países de todo el mundo, no han observado «ningún caso de operaciones de influencia relacionadas con las elecciones que atraigan participación viral o construyan audiencias sostenidas» con el uso de sus modelos de IA.

Esta funcionalidad es sólo para suscriptores

Suscribete
Comentarios
0
Comparte esta noticia por correo electrónico

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Reporta un error en esta noticia

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Muchas gracias por tu participación