Suscribete a
ABC Premium

Un hombre es hospitalizado tras seguir los consejos de salud de ChatGPT: «Tenía alucinaciones»

El paciente tuvo que ser retenido por los médicos tras intentar escapar del centro

Lluvia de críticas al primer ministro de Suecia al revelar que pide a ChatGPT una «segunda opinión» antes de tomar decisiones

Sigue en directo el sorteo del Mundial 2026 y conoce los rivales de España en el campeonato, los grupos, los cruces y los emparejamientos

Un hombre es hospitalizado tras seguir los consejos de salud de ChatGPT: «Tenía alucinaciones» Pixabay

Esta funcionalidad es sólo para registrados

La inteligencia artificial ha conquistado casi todos los rincones de nuestra vida diaria. Desde planificar un viaje hasta redactar correos electrónicos, pasando por resolver todas nuestras dudas, los chatbots como ChatGPT se han convertido en aliados imprescindibles. Para muchos, incluso han reemplazado ... las tradicionales búsquedas en Google o YouTube. Sin embargo, hay un detalle que muchos usuarios olvidan, la IA también se equivoca. Y cuando la pregunta se adentra en terrenos delicados, como la salud, el riesgo se multiplica.

Artículo solo para suscriptores

Esta funcionalidad es sólo para suscriptores

Suscribete
Comparte esta noticia por correo electrónico
Reporta un error en esta noticia