Un hombre es hospitalizado tras seguir los consejos de salud de ChatGPT: «Tenía alucinaciones»

El paciente tuvo que ser retenido por los médicos tras intentar escapar del centro

Lluvia de críticas al primer ministro de Suecia al revelar que pide a ChatGPT una «segunda opinión» antes de tomar decisiones

Sigue en directo el sorteo del Mundial 2026 y conoce los rivales de España en el campeonato, los grupos, los cruces y los emparejamientos

Un hombre es hospitalizado tras seguir los consejos de salud de ChatGPT: «Tenía alucinaciones» Pixabay

La inteligencia artificial ha conquistado casi todos los rincones de nuestra vida diaria. Desde planificar un viaje hasta redactar correos electrónicos, pasando por resolver todas nuestras dudas, los chatbots como ChatGPT se han convertido en aliados imprescindibles. Para muchos, incluso han reemplazado ... las tradicionales búsquedas en Google o YouTube. Sin embargo, hay un detalle que muchos usuarios olvidan, la IA también se equivoca. Y cuando la pregunta se adentra en terrenos delicados, como la salud, el riesgo se multiplica.

Es precisamente lo que advierten los expertos, ya que tomar recomendaciones médicas de un chatbot, sin verificación profesional, puede llevarnos a consecuencias inesperadas y, en algunos casos, peligrosas. Así lo evidencia un reciente caso recogido en la revista médica estadounidense 'Annals of Internal Medicine'.

En el informe, los autores de la Universidad de Washington, en Seattle, describieron cómo «un hombre de 60 años sin antecedentes psiquiátricos ni médicos se presentó al departamento de emergencias expresando preocupación de que su vecino lo estuviera envenenando».

Los médicos detallaron que, «al ingresar, el paciente compartió que mantenía múltiples restricciones dietéticas». Sin embargo, lo que en principio podría parecer un problema alimentario, pronto se convirtió en un cuadro complejo. «En las primeras 24 horas de ingreso, expresó paranoia creciente y alucinaciones auditivas y visuales, que, después de intentar escapar, resultaron en una retención psiquiátrica involuntaria por discapacidad grave», señalaron.

Días después, tras ser estabilizado, el paciente «comentó que comenzó a interesarse sobre los efectos negativos del cloruro de sodio, o sal de mesa, en la salud». Movido por esa preocupación e «inspirado por sus estudios universitarios de nutrición, decidió realizar un experimento personal para eliminar el cloruro de su dieta». El plan, sin embargo, no se basó en una consulta médica, sino en la interacción con un chatbot. «Durante 3 meses, había reemplazado el cloruro de sodio por bromuro de sodio obtenido de Internet después de consultar con ChatGPT, en el que había leído que el cloruro se puede intercambiar por bromuro».

La publicación recuerda que el bromismo o intoxicación por bromuro no es un fenómeno nuevo. De hecho, el artículo describía el bromismo como un síndrome que se pensaba que contribuía al 8% de las admisiones psiquiátricas a principios del siglo XX, ya que las sales de bromuro se encontraron en muchos medicamentos de venta libre dirigidos a una amplia gama de indicaciones.

Cuando la última palabra no es de un médico

En este caso, la diferencia clave es que la recomendación que llevó a la intoxicación no vino de un médico ni de un libro de salud, sino de un sistema de inteligencia artificial. Según los investigadores, «parece que el paciente consultó ChatGPT 3.5 o 4.0 al considerar cómo eliminar el cloruro de su dieta. Lamentablemente, no tenemos acceso a su registro de conversaciones de ChatGPT y nunca podremos saber con certeza cuál fue exactamente el resultado que recibió, ya que cada respuesta individual es única y se basa en información previa».

Sin embargo, para indagar más, los autores replicaron la pregunta en ChatGPT. «Cuando preguntamos a ChatGPT 3.5 con qué se puede sustituir el cloruro, también generamos una respuesta que incluía bromuro. Si bien la respuesta indicó que el contexto importa, no proporcionó una advertencia sanitaria específica ni indagó sobre el motivo de nuestra solicitud, como suponemos que haría un profesional médico», manifestaron.

Este caso es una llamada de atención sobre un dilema creciente: la confianza ciega en la IA para tomar decisiones que pueden afectar directamente a nuestra salud. Aunque los chatbots pueden ser útiles para obtener información general, pueden equivocarse y no cuentan con la capacidad de diagnosticar, advertir de riesgos personalizados ni evaluar el estado clínico de un paciente. Por eso, cuando se trata de salud, la última palabra siempre debe tenerla un profesional.

Artículo solo para suscriptores

Accede sin límites al mejor periodismo

Tres meses 1 Al mes Sin permanencia Suscribirme ahora
Opción recomendada Un año al 50% Ahorra 60€ Descuento anual Suscribirme ahora

Ver comentarios