Suscribete a
ABC Premium

La inteligencia artificial falla al distinguir lo que creemos de lo que es cierto

Un reciente estudio publicado en 'Nature' sostiene que este problema puede generar diagnósticos médicos erróneos, malinterpretaciones legales y desinformación

ChatGPT ya te deja crear texto, fotos y vídeos: lo siguiente va a ser hacer música por ti

Las aplicaciones de ChatGPT y Deepseek EFE
R. Alonso

Esta funcionalidad es sólo para registrados

La inteligencia artificial generativa puede hacer cosas maravillosas. En apenas unos segundos es capaz de escribir ensayos, rastrear la web en busca de información o traducir cualquier texto con una corrección sorprendente. Sin embargo, sigue sin ser perfecta. Las máquinas que la sustentan continúan ... cometiendo errores de bulto, tienden a deformar la realidad para agradar a quien teclea y muestran serias dificultades para comprender, de verdad, lo que se les está diciendo. Esto último queda claro en un nuevo estudio publicado en 'Nature', que revela que los sistemas como ChatGPTno son capaces de distinguir entre una opinión y un hecho comprobado. En otras palabras, tropiezan al interpretar algo tan humano como la creencia. Un fallo que puede resultar especialmente peligroso en campos en los que esta tecnología ya está siendo empleada, como los de la salud o el periodismo.

Artículo solo para suscriptores

Esta funcionalidad es sólo para suscriptores

Suscribete
Comparte esta noticia por correo electrónico
Reporta un error en esta noticia