El Papa es una mujer y los vikingos eran negros: los fallos históricos garrafales de la IA de Google

La tecnológica está realizando cambios en su plataforma Gemini para que sus resultados sean más exactos a nivel histórico

Worldcoin: ¿por qué es tan valioso el iris y lo están escaneando?

Imagen de un vikingo creada por un usuario con Gemini

La inteligencia artificial (IA) generativa avanza a velocidades de vértigo. Pero los resultados que ofrece siguen lejos, y mucho, de ser perfectos. Y eso vale para cualquier herramienta en la que el usuario piense; afecta a ChatGPT, al chatbot de Bing o a Gemini, la flamante plataforma de Google ... . Precisamente, el buscador más empleado en la red ha anunciado que su herramienta de IA ya no permite a los usuarios seguir creando imágenes de personas.

Todo después de que numerosos internautas comenzasen a compartir en redes sociales contenido creado con Gemini en el que se podía ver cómo la máquina había cometido varios errores históricos a la hora de crear imágenes de soldados alemanes de la Segunda Guerra Mundial, papas católicos, presidentes de Estados Unidos o vikingos, por poner algunos ejemplos.

«Estamos trabajando para solucionar problemas recientes con la función de generación de imágenes de Gemini. Mientras hacemos esto, vamos a pausar la generación de imágenes de personas y pronto volveremos a publicar una versión mejorada», ha afirmado Google en un comunicado realizado en su cuenta oficial de X, red social anteriormente conocida como Twitter.

En el comunicado, el gigante de las búsquedas, y posiblemente el actor más activo dentro de la actual guerra que libran varias tecnológicas para lanzar las herramientas más potentes basadas en inteligencia artificial, la empresa no hacía referencia a las imágenes compartidas en redes sociales.

«La Historia tiene más matices»

Los resultados de Gemini en la generación de imágenes históricas no son especialmente sorprendentes para cualquier que haya trasteado mínimamente con este tipo de herramientas. Las empresas detrás de su desarrollo se esfuerzan mucho para evitar que puedan crear contenido que pueda resultar ofensivo o discriminatorio. Lo que las empresas quieren es que todos los usuarios se puedan ver reflejados en sus resultados. Porque el daño reputacional para la empresa, en caso de que no fuese así, podría ser grande.

Krawczyk, además, ha señalado que la compañía es «consciente» de que «Gemini ofrece imprecisiones en algunas representaciones de generación de imágenes históricas» y se está trabajando «para solucionarlo de inmediato». El ejecutivo reconoce que «los contextos históricos tienen más matices». Que no es lo mismo, por tanto, que un usuario le pida a una IA que le cree un soldado alemán de 1943 que solicitar un soldado alemán a secas. Los detalles importan.

Artículo solo para suscriptores

Accede sin límites al mejor periodismo

Tres meses 1 Al mes Sin permanencia Suscribirme ahora
Opción recomendada Un año al 50% Ahorra 60€ Descuento anual Suscribirme ahora

Ver comentarios