Las IA tienden a 'alucinar' ¿Cómo se produce este fenómeno y por qué es tan peligroso para la sociedad?
En febrero un pequeño error de la inteligencia artificial de Google costó al gigante de las búsquedas una caída del 9% del valor de sus acciones
La Casa Blanca se reunirá con Google y Microsoft para garantizar que su inteligencia artificial sea segura
Barcelona
Esta funcionalidad es sólo para registrados
Iniciar sesiónLa inteligencia artificial (IA) avanza a paso ligero, pero todavía quedan muchos detalles por pulir. Su prematuro estado sirve en la actualidad a un puñado de sectores como los que la utilizan para interactuar con el cliente. Sin embargo, nada garantiza todavía ... que la información que 'escupen' estos procesadores de texto sea veraz, y su uso no podrá generalizarse hasta que no se solucione este problema.
Errores como el del 'chatbot' de Google, Apprentice Bard, que en su presentación al mundo el pasado mes de febrero cometió una imprecisión que le costó al gigante de las búsquedas una caída en bolsa del 9 por ciento, son muy comunes y reciben el nombre de 'alucinación'. ¿Pero en qué consisten realmente?
Bard is an experimental conversational AI service, powered by LaMDA. Built using our large language models and drawing on information from the web, it's a launchpad for curiosity and can help simplify complex topics → https://t.co/fSp531xKy3 pic.twitter.com/JecHXVmt8l
— Google (@Google) February 6, 2023
En pocas palabras, una alucinación se produce cuando una IA ofrece información falsa pero muy detallada sobre un evento que no ha ocurrido o que lo ha hecho de otro modo. Esto sucede, principalmente, porque estos algoritmos no son conscientes realmente de lo que dicen, sólo analizan cantidades masivas de texto digital e identifican patrones que aprenden.
Esto puede llevar, por supuesto, a que la IA repita alguna falsedad encontrada en la red, ya que por sí misma carece de criterio y su 'razonamiento' se basa principalmente en la estadística. Es decir, cuanta más información sobre un tema exista en internet, más difícil será que la información que proporciona una IA sea errónea.
«Tendencia a alucinar»
Los expertos advierten que el objetivo principal de estas IA es que sus respuestas parezcan humanas. Buscan, sobre todo, generar textos coherentes, con una redacción impecable, muy logrados en la forma pero no tanto en el fondo, del cual estos carecen de método alguno para contrastar lo que dicen.
Por ahora, las principales Big Tech involucradas en esta suerte de carrera tecnológica reconocen estos fallos en sus condiciones de uso y le piden al usuario que los tenga en cuenta. En el caso de OpenAI, aliado ahora con Microsoft y su buscador Bing, apuntan que «GPT-4 tiene la tendencia a 'alucinar' y producir contenido sin sentido o falso en relación con ciertas fuentes».
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para registrados
Iniciar sesiónEsta funcionalidad es sólo para suscriptores
Suscribete