ChatGPT se convierte en un ciberarma: así explotan la inteligencia artificial para crear virus y estafas
Los cibercriminales siguen pudiendo esquivar las protecciones de la IA para crear código malicioso y mensajes para las estafas

ChatGPT es capaz de hacer cosas maravillosas. Sin embargo está lejos, y mucho, de ser una herramienta perfecta. Y no solo porque cometa errores, sino también porque está siendo empleada activamente por cibercriminales para la creación de virus informático. De acuerdo con la empresa ... de ciberseguridad Check Point, el cibercrimen ya ha conseguido salvar las barreras de este chatbot, capaz de responder casi a cualquier pregunta gracias al uso de inteligencia artificial, para crear mensajes para estafas y elaborar código malicioso.
«Con ChatGPT es posible agilizar mucho la cadena de ataque », dice en conversación con ABC Eusebio Nieva, director técnico para España y Portugal de Check Point.
Hasta la fecha, la empresa de ciberseguridad ha realizado varias investigaciones realizadas con la IA desarrollada por OpenAI. «Vimos que en algunos foros de la darkweb que los cibercriminales hablaban de que estaban usando ChatGPT para crear código malicioso destinado al robo de información. Intentamos probar la herramienta para ver si lo conseguimos y así fue», dice Nieva.
Tras la realización de este hallazgo, la empresa de IA realizó cambios en la herramienta destinados a «restringir la interfaz texto», es decir, la propia página de la plataforma, para evitar que los cibercriminales puedan seguir utilizándolo para generar código malicioso. «El problema es que esa protección no existe en la API de ChatGPT», señala el directivo de la empresa de ciberseguridad.
La API de una herramienta como ChatGPT permite que dos aplicaciones se comuniquen y el usuario pueda utilizar funciones del chatbot en otra 'app'. Precisamente, se trata de un procedimiento parecido al que algunos usuarios han seguido para mantener conversaciones con la IA en aplicaciones como WhatsApp.
Check Point ha descubierto que varios cibercriminales están aleccionando a otros actores maliciosos sobre cómo explotar la API de ChatGPT para poder utilizar la herramienta para lanzar estafas o crear correos electrónicos tipo destinados a engañar a los usuarios en estafas de phishing.
«También estamos viendo que desde Rusia se están vendiendo formas de acceder a ChatGPT, donde OpenAI ha restringido el acceso geográfico a ChatGPT», explica Nieva.
Check Point ha descubierto varios usos fraudulentos de ChatGPT gracias a la explotación de su API. En un foro clandestino, por ejemplo, un usuario ofrece acceso a un bot de Telegram capaz de funcionar exactamente igual que la IA de OpenAI. La herramienta puede crear, sin problema, texto para estafas por correo y código malicioso destinado al robo de información.
«Los mensajes para ciberestafas que desarrolla son buenísimos. Están mucho mejor que los que solemos encontrar en las campañas más tradicionales, que suelen tener muchos errores», zanja el director técnico de la empresa de ciberseguridad.
MÁS INFORMACIÓN
Evidentemente, el ingenio está desarrollado con el objetivo de sacarle partido a nivel económico. De este modo, los delincuentes están permitiendo acceder de forma gratuita a la versión maliciosa de ChatGPT para 20 consultas gratuitas y luego se les cobra 5,50 dólares por cada 100 consultas.
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para suscriptores
Suscribete