Suscribete a
ABC Premium

¿Puede la IA «extinguir» a la humanidad?: la razón por la que nadie para su desarrollo a pesar del peligro

Algunos de los mayores expertos en esta tecnología firmaron ayer una declaración afirmando que el control de los desarrollos debe ser «una prioridad mundial», como ocurre con las pandemias y el armamento nuclear

ChatGPT puede tener los días contados en la UE: la razón por la que OpenAI amenaza con retirarlo

Rodrigo Alonso

Esta funcionalidad es sólo para registrados

La inteligencia artificial (IA) será capaz de lo mejor y de lo peor. Igual se convierte en el mayor aliado en la lucha contra la pobreza y el cambio climático que, en un futuro indeterminado, pone en jaque la supervivencia de la humanidad. Al ... estilo de una película de ciencia ficción ochentera. Así lo afirman, aproximadamente, 350 de los mayores investigadores y ejecutivos de IA a nivel global, que ayer firmaron una declaración en la que dejaron clara la necesidad de trabajar para que este tipo de tecnología no acabe convirtiéndose en un potencial peligro, incluso, para la supervivencia del mundo. Y solo han necesitado 27 palabras en castellano: «Mitigar el riesgo de extinción por la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear».

Artículo solo para suscriptores

Esta funcionalidad es sólo para suscriptores

Suscribete
Comparte esta noticia por correo electrónico
Reporta un error en esta noticia