Ibán García del Blanco: «La inteligencia artificial no es necesaria para destruirnos»
RETOS PARA UN MUNDO NUEVO
El ponente español sobre la IA recuerda que Europa no tenía el liderazgo del sector antes del acuerdo para regularla y espera que este nuevo escenario contribuya a corregir esta debilidad
Guerra abierta por la hegemonía de la IA
Esta funcionalidad es sólo para registrados
Iniciar sesiónIbán García del Blanco (León, 1977) ha sido coordinador de los parlamentario europeos socialdemócratas en la Comisión Especial sobre Inteligencia Artificial (IA) que alumbró, a finales de 2023, el pacto para que la Unión Europea legisle sobre este tema. Abogado y ajedrecista (llegó ... a ser subcampeón universitario), García estaba más vinculado a la política local y al mundo de la cultura hasta que desembarcó en Bruselas donde se vio forzado a entrar en los detalles del mundo digital, el cual lo ha atrapado completamente.
— ¿Cómo se legisla sobre algo que no se conoce bien?
— Se conoce parte de su esencia, pero no se sabe hasta dónde puede llegar ni cómo puede evolucionar. En ese sentido es un reto desde el punto de vista de la técnica jurídica porque, además, apela a un concepto esencial que es el de seguridad jurídica. Así que por lo que hemos optado es por tener en cuenta los valores que están en juego, sobre todo los derechos fundamentales y algunos valores colectivos que nos parecen esenciales, independientemente de la tecnología que se use. Planteamos determinadas exigencias que tienen que ver con algunas conductas que nos parecen absolutamente inapropiadas.
— ¿Cuáles son esas conductas?
— Por ejemplo, está prohibido la utilización de la IA para la manipulación subliminal, está prohibido el control biométrico en espacios públicos, está prohibida la utilización de inteligencia artificial en materia de fronteras, están prohibidos los sistemas de puntuación social como se utilizan en China, esa especie de carnet de buen o mal ciudadano. Es decir conductas que son especialmente aberrantes desde el punto de vista de nuestros derechos fundamentales.
— En una entrevista decía que una de las cosas que se ha prohibido era «definir una característica de debilidad de la población» y aprovecharla con la IA, ¿qué quiere decir esto?
— Básicamente me refería a la manipulación subliminal. Existe una prohibición expresa cuando nos referimos a personas especial o potencialmente más débiles, pues por cuestiones intelectuales o porque estemos hablando de menores…
MÁS retos
- Gregorio Luri, sobre PISA : «Consolarnos con que otros empeoraron me parece poco honesto»
- Juan F. Jimeno: «Los jóvenes son menos productivos en los países envejecidos»
- Toni Roldán Monés: «Tenemos que volver a poner el crecimiento en el centro del debate»
- Guy Sorman: «¿Alguna vez la UE comprobó adónde iba el dinero a Gaza?»
- Florentino Felgueroso: «Seguimos pagando las decisiones educativas tomadas hace 40 años»
— ¿No es eso acaso lo que hacemos cuando para crear ciertas políticas públicas definimos a un grupo como pobre, inmigrante o con determinadas carencias?
— Es una muy buena reflexión y de hecho se suscitó en repetidas ocasiones. Lo que ocurre con la IA es que incluso algunas conductas que sí se pueden realizar en el mundo físico, por la potencia intrínseca que tiene la tecnología, por su capacidad de intrusión o de manipular, se prohíben o limitan. Voy a poner un ejemplo: cuando hablamos del control biométrico en espacios públicos, si tu pones mil policías a controlar una plaza eso no está prohibido, pero sin embargo que utilices cámaras de seguridad con IA, si lo está. Pero es cierto que hay algunos aspectos que han sido muy debatidos y sobre los que tenemos que conocer la redacción definitiva.
—Me imagino que el caso de Cambridge Analytica habrá salido una y otra vez. Ahí se definió una característica de un grupo que tenía una propensión a que se activara su voto en determinada dirección…
— Incluso podría caer en cuestiones relacionadas con manipulación subliminal o con otras normas en las que estamos trabajando como la ley sobre publicidad política o la ley sobre sobre libertad periodística o incluso la ley de servicios digitales.
— Europa no tiene grandes empresas de IA, pero tendrá leyes sobre IA.
— Existe una situación de hecho que es que estamos muy por detrás de Estados Unidos y de China. Es decir, si China invierte unos 15.000 millones de dólares al año, nosotros invertimos 15 veces menos. Y para que ocurra eso no ha hecho falta ninguna ley, no ha habido ningún tipo de entorpecimiento al desarrollo tecnológico o al modelo empresarial. De la misma manera que hemos decidido que las cuestiones regulatorias se tienen que adoptar de manera única en Europa, tenemos que sumar el músculo suficiente para competir en el ámbito internacional. Y si no, pues seguiremos siendo o un epígono de EE.UU. o un espacio que irá perdiendo relevancia. Aquí la clave está en planificación, inversión y en aprovechar muchas de nuestras potencialidades, por ejemplo, la importante red europea de universidades.
— Hay quien dice que si los emprendedores no crearon empresas de IA sin regulación menos se van a animar ahora.
— Por el contrario, creo que cualquier inversor o emprendedor va a apreciar que haya un espacio de seguridad jurídica, que sabe exactamente qué va a encontrar y no va a tener sorpresas. Diría más: en cuanto a la mayoría de los usos de la inteligencia artificial, ninguno de estos tiene una exigencia adicional importantísima. Es decir, estamos hablando de una exigencia especial en el caso de usos de alto riesgo y por supuesto de las prohibiciones, pero el resto de las conductas no están sometidas a nada. Incluso hay herramientas que pueden ser muy flexibles y ágiles para introducir un determinado uso en el mercado.
—¿La IA puede destruir al mundo?
—He leído mucha ciencia ficción y claro, al final pensaba más en algunas distopías, pero creo que existe mucha más seguridad a partir de este momento al menos en Europa y creo que la evolución internacional va a ir en el mismo camino y ya hay signos de ello. Existe mucho más control de este tipo de tecnología de lo que ha habido hasta ahora con otro tipo de ellas. A veces también pongo como ejemplo que el ser humano ha sido muy capaz de destruirse a sí mismo usando palos y piedras, no necesitas ordenadores para todo eso.
— Cuando hay una innovación rupturista, los que han llegado primero son los que exigen que se regule para poder asegurarse la ventaja. ¿Esto ha sido motivo de reflexión para ustedes?
— Es otra de las circunstancias del campo de juego en el que nos movemos. De hecho aquí ocurrió que en un determinado momento grandes empresas tecnológicas fueron las que primero levantaron la voz pidiendo una regulación. Hay quien podía observar en ello una especie de ánimo de crear un cuello de botella para los nuevos innovadores o los nuevos emprendedores. Eso es un peligro cierto que se puede dar, pero es verdad que la regulación europea prevé que precisamente para los agentes más pequeños las exigencias sean menores y crea también organismos públicos que pueden ayudar a quienes no pueden pagarse un ejército de abogados, un ejército de ingenieros que expliquen las cosas.
— ¿Entre la Comisión, el Parlamento y el Consejo europeo, dónde estaban los puntos de choque?
—Por hacer un poco de memoria, el primero que puso encima de la mesa una propuesta sobre ética aplicada a la IA, robótica y tecnologías afines fue el Parlamento, en octubre de 2020. Me acuerdo porque fui el ponente. A partir de ahí, la Comisión evacuó una propuesta de norma que de alguna manera vivía en la misma filosofía, sobre todo en ese aproximación por la cuestión del riesgo. Y a partir de ahí el Parlamento lo que intentó es ser más proteccionista con respecto a valores fundamentales que puedan estar en juego. El Consejo, por el contrario, en la mesa de negociación era más partidario de un espacio en el que en el que no hubiera tanto control y tanta regulación y también de salvaguardar otros intereses públicos como la seguridad o la libertad. Como ocurre en la vida normal, hay intereses muy legítimos que pueden estar contrapuestos y la dificultad es encontrar cuál es el punto de equilibrio. Pues eso es lo que ocurrió definitivamente. Al final yo creo que hemos llegado a un equilibrio muy interesante que diría yo que se acerca más al planteamiento inicial del Parlamento que del Consejo
—En el tema de seguridad no.
—En el tema de seguridad hay que tener en cuenta, para empezar, que por mor del Tratado de la Unión Europea cuestiones relacionadas con seguridad nacional o con defensa son materia exclusiva de los Estados nacionales. A partir de ahí nos tenemos que poner de acuerdo en los límites. Es decir qué es seguridad nacional y que no. Por ejemplo, un límite que es evanescente es el control en fronteras. ¿Es seguridad nacional, es defensa o es otra cosa? Bueno, pues nos hemos tenido que poner de acuerdo hasta donde llegaban algunos usos que en principio el Parlamento prohibía de manera absoluta.
— ¿Qué papel jugó la aparición de ChatGPT?
— En términos clásicos diría que fue un 'memento mori', es decir, estábamos regulando con cierta seguridad alrededor de una tecnología que más o menos creíamos comprender y de repente el paradigma cambió con la aparición de estos sistemas de propósito general, que de alguna manera nos impelían a tener que reconfigurar incluso nuestro esquema cerebral. Tanto fue así que especialistas que nos decían que esta era una tecnología que surgiría en un futuro no demasiado lejano pero lejano, quedaron sorprendidos. Por lo tanto nos hizo replantearnos cómo podíamos encajar ese tipo de tecnología dentro de una regulación más general. Diría más, fue tan desconcertante que algunos países que estaban defendiendo menos regulación llegaron a prohibir la tecnología en sus países y me refiero, por ejemplo a Italia o a Francia que estuvo a punto de hacerlo.
«No se puede vender tecnología que permita reconocer las emociones humanas»
— Está el tema de las emociones humanas. La IA no se puede utilizar para reconocerlas. ¿Por qué?
— Depende del ámbito. Por ejemplo, está prohibido en el ámbito laboral o en el ámbito educativo y ya hay herramientas que lo hacen. En el ámbito educativo de hecho se utilizó de forma de forma pionera y casi experimental para, sin más lejos, el control en exámenes en plataformas online. Eso ocurrió durante la pandemia, es decir muchas de estas de estas pruebas de calificación, se tuvieron que hacer vía zoom o vía otro tipo de plataforma. O en el ámbito laboral para controlar el desempeño o el rendimiento o la atención que puede tener un trabajador.
— Entonces lo que han acordado legislar es que no se puedan crear algoritmos basados en reconocer emociones.
— Se puede investigar y desarrollar tecnológicamente, pero no se puede comprar tecnología que reconozca las emociones para medir, por ejemplo, el rendimiento laboral o para medir el nivel de atención de un alumno en un examen.
—Eso impediría formular políticas públicas en base a emociones.
—No está previsto en la regulación que se pueda utilizar para controlar determinadas emociones en política o en cualquier otro ámbito.
— Es que hay emociones en política muy importantes: el nacionalismo, por ejemplo.
— Sí y vuelvo a decir lo mismo que en el ejemplo de los palos y las piedras: no hemos necesitado de ninguna forma la tecnología para poder capitalizar ese tipo de sentimientos primarios y casi tribales.
— ¿Qué va a suceder cuando la IA descubra el nacionalismo?
—(Ríe) Supongo que ya lo ha descubierto hace mucho tiempo. Lo que le será muy difícil es formularlo con una teoría que pueda racionalizar ese sentimiento. Hacer eso es muy complicado para este tipo de modelos, aunque a veces imitan muy bien la comprensión que es otro de los problemas.
— También está el fenómeno de las alucinaciones, cuando la IA se inventa hechos.
— Y además tienen un peligro añadido que es que mienten muy bien. Por eso hay que tener cierta precaución al utilizar este tipo de modelos que están muy bien para ordenar ideas, para establecer borradores, pero yo no me fiaría mucho de un modelo de estas características sin ningún tipo de control o de supervisión por parte de un humano experto.
— He leído que estará prohibido anticipar los crímenes.
— Sí, lo que se llama criminalística predictiva. Esta es otra de las cuestiones prohibidas que fue objeto de debate y sobre lo que también podría haber algún tipo de excepción cuando hablamos de un peligro inminente o de un análisis suficiente del impacto en derechos fundamentales y de una autorización judicial para poder ejercitarlo. Pero en términos generales está prohibido.
—¿Cuál es su valoración del actual estado de la IA?
—Bueno, a mí me sigue sorprendiendo. Claro, también depende del campo del que estemos hablando. A veces tengo la ocasión de hablar con gente que utiliza la IA en medicina y las cosas que me adelantan son espectaculares. En otros terrenos soy más escéptico. Si te dedicas al mundo de la narrativa o del ingenio en general, hasta donde nosotros sabemos la IA no tiene ingenio por sí misma, es una característica absolutamente humana. Por eso las obras humanas están protegidas por normas especiales y aquí tendremos que ponernos de acuerdo si van a tener protección y si vamos a hablar de patentes o de otra categoría, pero desde luego no de obras de propiedad intelectual o del ingenio humano.
Límite de sesiones alcanzadas
- El acceso al contenido Premium está abierto por cortesía del establecimiento donde te encuentras, pero ahora mismo hay demasiados usuarios conectados a la vez. Por favor, inténtalo pasados unos minutos.
Has superado el límite de sesiones
- Sólo puedes tener tres sesiones iniciadas a la vez. Hemos cerrado la sesión más antigua para que sigas navegando sin límites en el resto.
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para registrados
Iniciar sesiónEsta funcionalidad es sólo para suscriptores
Suscribete