Suscribete a
ABC Premium

Los mayores expertos en inteligencia artificial alertan de que la IA pone en «riesgo de extinción» al ser humano

Apuntan que «mitigar el riesgo» debería ser una «prioridad mundial», como ocurre con las pandemias y el armamento nuclear

El padre de ChatGPT alerta en Madrid de que la IA debe «controlarse como un arma nuclear»

R. Alonso

Madrid

Un grupo de líderes de la industria de la inteligencia artificial (IA), entre los que se encuentran el director ejecutivo de OpenAI, Sam Altman, y el primer ejecutivo de Google DeepMind, Demis Hassabis, han firmado una nueva declaración en la que dejan claro ... el peligro que puede representar el desarrollo de esta tecnología para la sociedad. Y solo han necesitado 22 palabras en inglés: «Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear».

Artículo solo para suscriptores

Esta funcionalidad es sólo para suscriptores

Suscribete
Comparte esta noticia por correo electrónico
Reporta un error en esta noticia