Los mayores expertos en inteligencia artificial alertan de que la IA pone en «riesgo de extinción» al ser humano
Apuntan que «mitigar el riesgo» debería ser una «prioridad mundial», como ocurre con las pandemias y el armamento nuclear
El padre de ChatGPT alerta en Madrid de que la IA debe «controlarse como un arma nuclear»
Adiós aire acondicionado: así funciona el invento que gasta cinco veces menos de energía y no necesita gas ni instalación externa

Un grupo de líderes de la industria de la inteligencia artificial (IA), entre los que se encuentran el director ejecutivo de OpenAI, Sam Altman, y el primer ejecutivo de Google DeepMind, Demis Hassabis, han firmado una nueva declaración en la que dejan claro el peligro que puede representar el desarrollo de esta tecnología para la sociedad. Y solo han necesitado 22 palabras en inglés: «Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear».
La oración ha sido publicada por la organización sin fines de lucro con sede en San Francisco Center for AI Safety. Entre los, aproximadamente, 350 firmantes entre investigadores, ejecutivos y otras personalidades también figuran Geoffrey Hinton o Yoshua Bengio, dos de los grandes pioneros en el desarrollo de la inteligencia artificial.
Esta no es la primera vez que la comunidad científica alerta sobre los peligros que trae consigo el desarrollo de la inteligencia artificial, que se encuentra actualmente en su punto más álgido gracias al enorme éxito cosechado por esa máquina parlante conocida como ChatGPT.
Hace un par de meses, importantes ejecutivos, científicos y humanistas firmaron una carta más extensa en el que se solicitaba una paralización en el desarrollo de nuevas tecnologías con el fin de desarrollar medidas de seguridad que eviten sus efectos nocivos, que van desde la destrucción de puestos de trabajo hasta la generación de desinformación.
Sam Altman, CEO de la empresa detrás de la creación de ChatGPT, lleva días avisando de que la inteligencia artificial debería tratarse de forma similar al armamento autónomo. Así lo dejó claro la semana pasada durante una fugaz visita a Madrid, en la que abogó por la creación de un organismo internacional similar a la IAEA (Organismo Internacional de Energía Atómica de la ONU), que se encargue de controlar el desarrollo de la IA.
Tampoco es la primera vez que la comunidad científica apunta que la inteligencia artificial puede poner en riesgo de extinción al ser humano. Un estudio publicado por investigadores de la Universidad de Oxford y Google compartieron un estudio a finales del año pasado en el que se afirmaba que, llegado el momento, cuando las máquinas alcancen un nivel de sofisticación del que, por el momento, no están cerca, podrían terminar compitiendo con los humanos para cumplir con sus necesidades energéticas.
«En un mundo con recursos infinitos, sería extremadamente incierto lo que ocurriría. En un mundo con recursos finitos (como el nuestro), hay una competencia inevitable por estos recursos», dijo Michael Cohen, investigador de la Universidad de Oxford, en una entrevista con Vice realizada a este respecto. «Si estás en una competición con algo capaz de superarte en todo momento, no deberías esperar ganar», zanjó el experto.
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para suscriptores
Suscribete