entrevista
«La inteligencia artificial es como un martillo: se puede usar para matar pero no por eso hemos prohibido los martillos»
Rocío González-Díaz, catedrática de Matemática Aplicada en la Universidad de Sevilla, cree que ChatGPT puede cambiar el sistema educativo: «Acabará con los deberes de los estudiantes y con el plagio»
«Las estafas no las ha traído la IA: antes estaba el timo de la estampita»

Rocío González Díaz es catedrática de Matemática Aplicada I en la Universidad de Sevilla. Formada con Herbert Edelsbrunner en Estados Unidos, coordina junto con un equipo de matemáticos y de otros profesionales parte de un proyecto internacional denominado «Rexasi-Pro» que ... trata de destapar la «caja negra» de la inteligencia artificial (IA) para que la sociedad la vea como «un entorno seguro y fiable», algo que no va a resultar fácil tras las alertas lanzadas en las últimas semanas por destacados expertos sobre los riesgos de esta tecnología, entre ellos uno de sus máximos promotores, Sam Altman, que pidió mayor control y regulación en el Congreso de los Estados Unidos. «La IA es como una máquina de triturar carne, introduces la materia prima y sale troceada. Pero es una máquina que no tiene conciencia ni sentimientos ni empatía», asegura. Y recuerda que «las primeras calculadoras nos parecían también más inteligentes que las personas por los cálculos que eran capaces de hacer».
-¿La inteligencia artificial no es peligrosa?
-Como Internet y como la energía nuclear, es una herramiena que puede tener un mal uso. La suelo comparar con un martillo porque se puede usar para matar pero no por eso vamos a prohibir los martillos. Su peligro es su mal uso o que se le atribuyan responsabilidades humanas que no tiene. Siempre tiene que ser una persona la que tome la última decisión, no la máquina.
-El catedrático de la Universidad Politécnica de Valencia, José Hernández Orallo, dice que «es importante evitar que la inteligencia artificial alcance capacidades muy superiores a las de un ser humano y seamos incapaces de controlarla».
-Eso ocurrirá si lo permitimos nosotros. La mayoría de los bancos meten los datos del cliente y el sistema de inteligencia artificial dice si le conceden o no la hipoteca, en función de un algoritmo y de unos datos. Eso no podemos permitirlo. Una de las cosas que estamos exigiéndole a este sistema es que ofrezca siempre una explicación que un ser humano entienda sobre la decisión que ha tomado. Esto es aplicable a la concesión de un seguro de motocicletas o un seguro de vida.
-El sistema VioGén, basado en inteligencia artificial, detecta el riesgo de reincidencia en casos de violencia machista. Y se ha demostrado que, aunque se recomienda una revisión humana, sólo en un 5 por ciento de los casos se desecha esa decisión tomada por la máquina.
-Entiendo que eso lo revisa un ser humano pero hay que tener mucho cuidado. La inteligencia artificial no es infalible. Todo depende de la base de datos del sistema: si tiene sesgo o no está bien balanceado, normalizado o completo. Si está bien entrenado, debe de tener poco margen de error.
-Ese «sesgo» de la IA llevó a detener a un hombre afromericano en Estados Unidos después de que el algoritmo lo señalase como autor de un atraco. Se descubrió más tarde que el sistema se había equivocado.
-Por eso tiene que estar la persona por encima de la máquina.
-¿Y cree que será siempre posible esa supervisión humana?
-Tiene que serlo para no caer en un mal uso del sistema. En una simulación reciente con un dron, el sistema mató virtualmente al operario humano que lo supervisaba porque le impedía cumplir el objetivo marcado. Esto es claramente un error de la IA pero hay que decir que los humanos también nos equivocamos. No es posible exigirle cero errores porque todas las máquinas pueden equivocarse. Estos errores está retrasando la puesta en marcha de los coches autónomos pero el margen de error de los mismos es muy inferior al de los humanos. Lo que pasa es que los medios solo publican los errores de la máquina, no de los humanos, que son mucho más numerosos.
-¿Un dron o un avión no tripulado cargado con un arma nuclear podría «equivocarse» y lanzar su carga por error?
-No, si está supervisado por una persona. Es una herramienta útil con grandes cualidades y algunos defectos. Sólo hay que controlarla.
-Varios expertos, entre ellos Sam Altman, uno de sus principales promotores, acaban de alertar de que la IA se nos puede ir de las manos.
-Se nos puede ir de las manos si no la supervisamos y si le atribuimos cualidades que no tiene como la empatía, la conciencia o sentimientos.
-La IA no tendrá bondad ni empatía pero tampoco la maldad de algunas personas...
-No, pero todo depende de cómo lo alimentes. ChatGPT está «educado» para ser respetuoso con el usuario, incluso para no responder a preguntas malintencionadas. Sin embargo, ya hay personas que son capaces de sortear ese filtro ético para que dé las respuestas que no debería responder.
-¿Por ejemplo, bulos o noticias falsas?
-No tengo pruebas pero estoy convencida de que muchas de las «fake news» que han salido desde el inicio de la pandemia son fruto de esto. ChatGPT lleva ya muchísmos años funcionando aunque ahora se llame de otra manera y sea mucho más fácil de usar.
-Dicen algunos investigadores que en sus aplicaciones sanitarias ChatGPT puede inventarse enfermedades si no encuentra ninguna que le cuadre con los datos de los que disponga del paciente.
-Sí, eso puede ocurrir. Y yo he comprobado también se inventa citas. Una de ellas con el nombre de un científico y de la revista en la que supuestamente se publicó el artículo. Luego comprobé que era falsa.
-O sea, que no nos podemos fiar de la IA al cien por cien.
-No podemos fiarnos. Yo veo bien que estos bulos se hayan lanzado al público para que todo el mundo pueda ver lo fácil que es fabricar una noticia falsa.
-A esto se unen vídeos manipulados con presidentes de los Estados Unidos y todo tipo de celebridades. Quizá en estos casos sea más fácil detectar esta manipulación pero habrá otras en las que no. ¿Cómo se puede saber si estamos ante un bulo fabricado por IA?
-Esto de manipular un vídeo es algo muy habitual, desgraciadamente. Yo creo que se debe actuar pensando un poquito y con sentido común. Y no creerte lo primero que te entra por las redes sociales.
-Decía hace ya muchos años Antonio Burgos que la mitad de lo que hay en Internet es verdad y la otra mitad mentira. ¿Superamos ya esa mitad de falsedades con herramientas como ChatGPT?
-Es posible. Además, hay que tener en cuenta que ChatGPT se alimenta de lo que hay en Internet y cómo allí aparecen las mentiras que se han podido lanzar con él el número de bulos se va a retroalimentar.
-¿No hay herramientas para detectar lo que ha escrito ChatGPT?
-Las hay. Lo que pasa es que ChatGPT va mejorando para que no le detecten esas máquinas. Yo creo que al final será nuestra razón, nuestro juicio y nuestro sentido común el que nos deberá guiar acerca de la verdad y la falsedad que circulan por las redes.
-Resulta un poco inquietante.
-Ya lo era antes, lo que pasa es que no éramos conscientes. Ahora todos sabemos que hay que ir con cuidado. En principio, no debemos creernos nada de lo que veamos o leamos en Internet. Hay que informarse por distintas fuentes. Si el sentido común te dice que esa noticia no puede ser verdad, lo más probable es que no lo sea.
-Los medios de comunicación tenían antes el monopolio de la información que llegaba a los ciudadanos. Ahora cualquier persona con muchos seguidores en las redes sociales puede dar una «noticia», verdadera o no.
-De hecho, algunas de estas personas tienen más poder que muchos periodistas. Los canales de Telegram crean realidades paralelas que llegan a más gente que un telediario de una cadena nacional. Y ni siquiera necesitan inventarse una noticia para difundir un bulo porque lo pueden hacer con ChatGPT metiéndole algunos datos. Así se crean noticias llenas de datos y de citas pseudocientíficas que son absolutamente falsas.
-¿La IA puede rebatir cualquier hecho cierto?
-Sí, incluso que el hombre ido a la Luna. Y con un artículo lleno de citas y de datos, todos falsos. A todo lo puedas poner en un tuit ChatGPT encontrará argumentos para rebatirlo. Y será casi imposible de refutar en la práctica que el hombre no ha ido a la Luna porque necesitarás muchos expertos para contestar a todos esos datos falsos. Necesitarás muchos expertos, mucha documentación y mucho tiempo.
-¿Puede ChatGPT hacer una entrevista como ésta?
-Sí. Y podría inventarse todas mis respuestas.
-¿Y un poema?
-Sí. Y un cuento. Yo lo he hecho metiendo algunos datos sobre la persona a la que se lo quieres dedicar y el número de versos. Puedes decirle también del estilo Gloria Fuertes y el poema tendrá su estilo. O de cualquier otra poeta que tenga sus trabajos en Internet.
-Cualquier alumno podría hacer prácticamente todos sus trabajos en el instituto o en la universidad por ChatGPT. ¿No cree que la IA puede llegar a cambiar el sistema educativo?
-Yo diría que sí. Porque cualquier profesor deberá asumir que lo va a utilizar, así que habrá menos deberes y más debate y reflexión en clase. Si es así, el cambio será, a mi juicio, para bien. Porque se mandan demasiados deberes.
-¿El plagio también va a desaparecer en los institutos y en las universidades?
-Sí. Antes pasábamos el programa antiplagio de Google para los TFG (trabajos fin de grado) pero ahora ya es absurdo porque ChatGPT lo puede hacer sin que parezca plagio. Para evitar esto los profesores deberemos ejercer una tutorización. Yo la hago con mis alumnos cada dos semanas y ahí puedo controlar sus conocimientos. Volveremos al «face to face» (cara a cara).
-¿Qué más cosas positivas ve en la IA?
-Operar a una persona, supervisado por un cirujano, pero con más precisión. Nosotros presentamos un proyecto para hacer un diagnóstico personalizado y medicación personalizada a cada paciente con diabetes gracias a los millones de datos que maneja la inteligencia artificial.
-¿Podría ayudar a hacer el triaje de Urgencias, habitualmente colapsadas por patologías a menudo banales?
-Podría ayudar a que los médicos especialistas puedan dedicarse a ver a los pacientes que necesitan de su atención. Y con sus millones de datos puede ayudar a identificar enfermedades poco frecuentes y hacer un diagnóstico más preciso. Pero me temo que el colapso de Urgencias solo se puede resolver contratando más médicos. Con sistemas de IA también se puede hacer comida, conducir un coche o invertir el dinero en los productos de mayor rentabilidad. Casi cualquier cosa que se pueda mecanizar.
-Un estudio de Goldman Sachs asegura que la IA puede acabar casi de un plumazo con 300 millones de empleo. ¿Con qué tipos de empleo puede acabar directamente?
-La tecnología siempre suprime empleos pero crea, por el contrario, otros. Uno que ya está surgiendo es el del profesional que sabe hacer las preguntas adecuadas a ChatGPT para obtener las respuestas que buscas. Se llaman expertos en promt en ChatGPT.
-¿No teme que el reconocimiento facial que permite la IA sea utilizado por regímenes autoritarios como China para controlar los movimientos de su población?
-Solo con leyes de protección de datos y con esos filtros éticos que deben ponerse al sistema. En nuestro proyecto «Rexasi-Pro» los drones capturan las imágenes de unas personas en sillas de ruedas en la sala de un hospital y ponemos, por ejemplo, unos filtros para que no se pueda identificar a las personas.
-¿La revolución de la IA será la más disruptiva desde los tiempos de la invención de la rueda?
-No lo creo. Supondrá una gran evolución pero no creo que sea un cambio tan disruptivo.
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para suscriptores
Suscribete