La experta en inteligencia artificial de la RAE: «El ChatGPT no entiende ni lo que lee ni lo que escribe»
Asunción Gómez Pérez nos recibe en la sede de la Real Academia Española, donde reflexiona sobre la revolución del ChatGPT y alerta sobre cómo estas tecnologías dirigen el pensamiento de los niños
La inteligencia artificial se sienta en la RAE
Madrid
Esta funcionalidad es sólo para registrados
Iniciar sesiónAsunción Gómez Pérez (Azuaga, Badajoz, 1967) empezó a interesarse por la inteligencia artificial (IA) cuando Google aún era un sueño de dos genios de la informática. Es una de las grandes expertas de España en esta tecnología, y por lo que sea también una voz ... que calma los entusiasmos de integrados y apocalípticos. Ante el ruido, piensa. Es una mujer que construye sus respuestas como un edificio, de la base al cielo, aunque luego no le gusta elucubrar sobre lo que aún no existe. Explica mucho y asevera poco, pero cuando lo hace sus afirmaciones tienen todo el peso del conocimiento, de la seguridad. Defiende la tecnología, el progreso, la adaptación, pero también la regulación. Apenas lleva unas semanas en la RAE, y aún se está adaptando a los ritmos de la institución. «El director ya me ha asignado a una comisión de vocabulario científico. He asistido solamente a dos reuniones y a un par de plenos. Estoy empezando a conocer la dinámica de la Academia. Mi primer cometido aquí es aprender», dice.
—Lleva más de tres décadas trabajando en y con la inteligencia artificial. ¿Cómo ha vivido la revolución del ChatGPT?
—El ChatGPT ha sido un antes y un después, pero la inteligencia artificial se lleva desarrollando desde los años cincuenta del siglo pasado, y de hecho uno de los primeros desarrollos fue la creación de un bot conversacional que se llamaba Elisa. El ChatGPT, digamos, es la democratización de la inteligencia artificial. Ahora esta tecnología abre portadas de periódicos y está en las conversaciones de trabajo o con amigos. Es un tema en el que todo el mundo habla y opina.
—Pero pocos saben cómo funciona esta tecnología. ¿Cuál es el truco?
—Todo este tema de los modelos del lenguaje suponen una ruptura conceptual. ¿Por qué? Pues porque antes de estos modelos del lenguaje, los dispositivos trabajaban con palabras y generaban palabras. Ahora mismo lo que están haciendo todos estos modelos es darse un atracón de documentos para transformar todas esas palabras en modelos numéricos. Convierten el lenguaje en un modelo estadístico. Es decir: transforman el texto en números para luego volver a generar texto. Siguen patrones, trabajan con probabilidades. Y claro, como están utilizando un modelo estadístico para generar las respuestas, puede suceder que la respuesta que está generando el modelo no sea la correcta. Es lo que los científicos llamamos alucinaciones.
¡A debate! Los Beatles lanzarán una nueva canción a final de año gracias a la IA: a favor y en contra
Bruno Pardo PortoLa inesperada recuperación de una canción perdida por parte de Paul McCartney de los 'Fab Four' permite plantear dos visiones diferentes a partir de esta excusa
—Estos sistemas están lejos de pensar con palabras, ¿no?
—Es que estos sistemas no entienden ni lo que leen ni lo que escriben. Y por lo tanto, si uno no entiende ni lo que lee ni lo que escribe es muy difícil que pueda razonar. Una de las primeras consultas que hice al ChatGPT fue preguntarle por la fecha de creación de la RAE y por su fundador. Y aseguró que era Antonio de Nebrija. Y le dije que cómo pudo ser Antonio de Nebrija si este ya había fallecido cuando se fundó la Academia. Entonces muy educadamente respondió que se había equivocado y que disculpara el error. ¿Eso que significa? Que no es capaz de realizar un razonamiento temporal. También le dije: divide 33 entre 3. Me dijo que eran 11, pero le engañé y le repetí que se había equivocado. Me pidió disculpas de nuevo. Tampoco hace razonamiento matemático.
—Pero el ChatGTP escribe correctamente.
—Sí, te da textos con presentación, el nudo y desenlace [ríe]. Es muy cortés, es muy educado. Para tener frases de apertura y de cierre de cartas comerciales está muy bien. Y sirve de inspiración [y sonríe].
«El ChatGPT, digamos, es la democratización de la inteligencia artificial»
—¿Estamos siendo exagerados con las posibilidades de la IA?
—Ahora mismo existe un boom y unas expectativas que son consecuencia de todas las personas que han tenido acceso a esta tecnología. Pero esta tecnología no es un oráculo que vaya a resolver todos los problemas. Tampoco se puede utilizar para todo. Habrá que adaptarla. Y habrá que tener cautelas y sobre todo habrá que tener en cuenta también el nuevo reglamento de inteligencia artificial que está elaborando la Comisión Europea.
—¿Por qué es importante la regulación? ¿A qué riesgos nos enfrentamos?
—Toda tecnología tiene una serie de beneficios y tiene una serie de riesgos. A mí no me gusta hablar de los riesgos de la tecnología sin poner en valor los beneficios que la tecnología aporta. Y la inteligencia artificial permite detectar enfermedades de una manera muy rápida sobre radiografías o ecografías, y evidentemente eso es una parte muy positiva. También ayudan a la toma de decisiones en base a los datos previos. Y existen sistemas que modelizan el conocimiento experto para ponerlo a disposición de todos. Y en el tema de los riesgos… La tecnología se puede utilizar para muchas cosas. Unas más lícitas y otras que no lo son tanto o que no respetan los derechos fundamentales. El reglamento de inteligencia artificial distingue cuatro tipos de aplicaciones en función del riesgo que tienen para los seres humanos. Hay aplicaciones que están prohibidas porque se consideran que son de riesgo inaceptable.
—Naomi Klein dice que el de la inteligencia artificial es el robo más grande de la historia de la humanidad: todo el conocimiento que hay en internet puesto a disposición de unas pocas empresas, que no pagan por él. Hay mucha discusión con el tema de los derechos de autor.
—La Comunidad Europea está promoviendo todo lo que supone la apertura de datos y la ciencia abierta, la publicación en abierto. Mientras estos sistemas se nutran de datos abiertos o de textos que no están sujetos a derechos de autor, no hay problema. Si están tomando fuentes de datos que están protegidas, pues evidentemente las empresas que hagan eso tendrán que vérselas con aquellos que tienen los derechos. Pero vamos, que a mí lo que más me preocupa de todos estos sistemas que se nutren de tantos datos es que están dirigiendo la forma de pensar de los niños. Y de los no tan niños.
—¿En qué sentido?
—Cuando uno lee un artículo de un periódico puede contrastar. Buscas una información en Internet también y te salen un montón de enlaces, y leyendo varios te haces una idea de una determinada temática. Pero con esta tecnología puede ser que el que recibe la respuesta la vea como una verdad absoluta. Ese es uno de los riesgos que tienen especialmente para los niños. Hay que tener cuidado. Hay que monitorizar el uso que los niños hacen de la tecnología.
«Lo que más me preocupa de los sistemas como el ChatGTP es que están dirigiendo la forma de pensar de los niños. Y de los no tan niños»
—En el día de su ingreso en la RAE, Santiago Muñoz Machado alertó del riesgo de que la IA pudiera romper la unidad de la lengua española. ¿Hasta qué punto eso es una preocupación en la RAE?
—Es una preocupación importante. Como he comentado, la máquina tiene un atracón de textos y en base a esos textos genera su modelo de lenguaje y escribe. Si todos los textos proceden del Siglo de Oro, la máquina hablará o escribirá como entonces. Si los textos proceden de un determinado país de habla hispana, la máquina hablará como en ese país, sin tener en cuenta al resto. A la hora de construir un modelo de lenguaje en español se deben construir contextos que se hayan escrito en todos los países de Latinoamérica y España. Tienen que representar todas las variedades del idioma.
—¿Por dónde cree que va a sorprendernos la siguiente vez la inteligencia artificial?
—La inteligencia artificial llega a la fecha de hoy hasta donde llega gracias a que existen infraestructuras muy potentes y a que tenemos grandes cantidades de datos. Estamos en un momento histórico en el que los algoritmos actuales permiten realizar imágenes, vídeos, generar textos que hasta la fecha eran impensables. ¿Hasta dónde puede llegar la inteligencia artificial? Yo creo que hasta donde permita la legislación, en este caso la legislación europea. Las empresas de inteligencia artificial pueden imaginar nuevos tipos de aplicaciones, pero lo primero que tienen que analizar es si sus inventos respetan los derechos fundamentales. Esto es fundamental: que los ciudadanos estén seguros con la tecnología.
«¿Hasta dónde puede llegar la inteligencia artificial? Yo creo que hasta donde permita la legislación»
—¿Cree que la IA va a poder ser original en términos creativos?
—Estos modelos del lenguaje se nutren de textos que ya han sido escritos. Con lo cual, si algo ya ha sido escrito, puede ser que en la combinación de ciertas ideas exista cierta creatividad, pero no más. La creatividad humana, a fecha de hoy, supera a esa creatividad de las máquinas.
—A fecha de hoy… ¿Pero y en el futuro?
—Yo entiendo que lo que vende es echarle ciencia ficción e imaginar mundos para dar titulares. Pero yo soy más cautelosa. Me ciño a lo que podemos hacer dentro de un marco legal. Porque es peligroso, el hecho de que podamos imaginar la combinación de textos escritos con una inteligencia artificial, imágenes también generadas por una inteligencia artificial, voz generada por la inteligencia artificial… Si alguien recibe un mensaje o un vídeo, debería saber si eso ha sido generado con una inteligencia artificial.
—Es una de las medidas que defienden desde Europa, ¿no?
—Es un tema reputacional. Cuando un científico escribe un 'paper', pone su nombre. Cuando un periodista escribe una noticia, pone su nombre. Si una inteligencia artificial escribe una noticia, tendrá que constar que está escrita con inteligencia artificial.
—Por cierto, ¿qué noticia le ha sorprendido más últimamente de esta tecnología?
—La de un equipo de investigadores en Suiza que han logrado, combinando inteligencia artificial con otras tecnologías, que una persona parapléjica volviera a andar. Cuando nosotros andamos, nuestro cerebro sabe cómo tenemos que andar. Lo hemos aprendido. Existe una orden del cerebro que llega a nuestras piernas y nosotros nos ponemos a andar. Lo que han hecho este equipo de científicos es colocar una serie de electrodos en la cabeza de esta persona y hacer que la persona pensara y entrenara el sistema en cómo se andaba. Al final han conseguido que la persona se pusiera de pie y que pudiera andar.
Límite de sesiones alcanzadas
- El acceso al contenido Premium está abierto por cortesía del establecimiento donde te encuentras, pero ahora mismo hay demasiados usuarios conectados a la vez. Por favor, inténtalo pasados unos minutos.
Has superado el límite de sesiones
- Sólo puedes tener tres sesiones iniciadas a la vez. Hemos cerrado la sesión más antigua para que sigas navegando sin límites en el resto.
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para registrados
Iniciar sesiónEsta funcionalidad es sólo para suscriptores
Suscribete