educación
Profesores ante la inteligencia artificial: formación y alerta
XVIIII jornada de la fundación schola
El experto Guillermo Cánovas incide en la necesidad de que los maestros se formen sobre IA y en cómo evitar riesgos
Clases personalizadas para no quedarse atrás
El profesor y escritor Guillermo Cánovas, en la jornada de la Fundación Schola
La Inteligencia Artificial permite generar imágenes, vídeos, música, textos; tiene potencialidades que pueden usarse positivamente en un centro escolar, pero también una cara B peligrosa que entraña riesgos: fraude y manipulaciones, amenazas a la privacidad de las personas y un largo etcétera de consecuencias ... negativas que el profesorado debe conocer. La XVIII Jornada para profesores que organizó la Fundación Schola en Valladolid se centró en ello de la mano de Guillermo Cánovas, profesor, escritor y director del Observatorio para el Uso Saludable de la Tecnología, 'Educalike'.
Cánovas alertó de «la necesidad de trabajar sobre este tema en los centros escolares, no solamente con las familias y con los profesores», sino también «con los propios alumnos porque, aunque no consideremos interesante que utilicen algunas herramientas de Inteligencia Artificial, sí que es necesario que los formemos sobre cómo se puede evitar un uso poco seguro o poco saludable de esas herramientas». Porque, según un estudio que está realizando en toda España, el 80% de los alumnos desde 3º de la ESO y un 95% de los de Bachillerato -un cien por cien en algunos casos- ya usan IA. Para este experto, en el caso de la IA generativa de texto, «hay que distinguir muy bien el porqué y el para qué porque algunas herramientas nos interesan» para «la personalización de la educación que permiten», para la autoevaluación o «la posibilidad de obtener explicaciones distintas a las que da el grueso de la clase en el aula y luego todo el tema de los 'chats bots', que me parecen muy interesantes para trabajar con adolescentes».
Pero también está la otra cara de la moneda, que son los riesgos asociados. «En primer lugar, la posibilidad de que la inteligencia artificial generativa no transmita una información veraz» debido, por ejemplo, a sesgos, ya que «estas herramientas han sido entrenadas con información existente en Internet y en Internet hay información también sesgada», afirmó Cánovas, Premio Unicef a favor de la infancia en 2013.
A su juicio, también hay que tener en cuenta el efecto que la IA puede tener sobre el aprendizaje del alumnado. Cánovas hace una analogía con el uso de las calculadoras: «Creemos que es necesario que los alumnos a partir de una edad utilicen calculadoras, pero hasta esa edad, lo que deben aprender es a multiplicar y a dividir por sus propios medios. Del mismo modo que no se nos ocurre darle una calculadora a un niño que está aprendiendo las tablas de multiplicar no deberíamos poner en manos de un adolescente que está desarrollando funciones ejecutivas una herramienta que las lleva a cabo por él».
Cánovas, que detecta interés y preocupación en el profesorado, pero del que dice que «no está formado» en esta materia, asegura esa pertinencia de la formación ante la realidad de que también cada vez más alumnos, madres y padres usan la IA para los deberes y trabajos académicos. En este sentido, Cánovas incide en la conveniencia de esa formación para que los docentes puedan detectar textos y contenidos presentados por los estudiantes, pero generados por IA. También para discriminar la información veraz de la que no lo es o saber detectar la clonación de la imagen y la voz de una persona, un riesgo en casos, por ejemplo, de acoso escolar.
También ahí añadió un elemento de preocupación: «Para poder localizar estos engaños sí existen herramientas, pero la Inteligencia Artificial no para de avanzar. Entonces, aquellos errores que nos permiten a nosotros identificar claramente esas imágenes son errores que probablemente van a ir corrigiendo, con lo cual se nos va a dificultar cada vez más detectarlos». A su juicio, otro problema es también la falta de legislación en la mayoría de los países -la europea no entrará en vigor en su totalidad hasta 2026-. «Hemos empezado la casa por el tejado y creado las herramientas, las hemos distribuido y ahora nos planteamos qué normas nos damos respecto al uso y nos va a llevar un tiempo adaptar las legislaciones a estas realidades que, además, no van a parar de evolucionar.», cuando, también la IA «tiene potencialidades y posibilidades que ninguna herramienta ha tenido hasta ahora».
Para Cánovas, conviene dar pautas sobre amenazas a la privacidad que se pueden dar, pero también sobre las «alucinaciones» que puede presentar la IA: cuando no sabe cómo resolver algo, se lo inventa. Se debe alertar sobre las posibles manipulaciones, la adicción a la tecnología o una cuestión especialmente preocupante para este experto: que la IA se presenta en las conversaciones atribuyéndose características humanas: «Te entiendo», «te apoyo...», «algo que no debería estar permitido». Al alumno hay que decirle, según Cánovas, que verifique y amplíe la información con más fuentes, que no facilite datos personales, que establezca horarios para su uso, que es solo una herramienta, no una persona, y que comente con adultos «si te hace sentir mal».