entrevista
Antonio José Sánchez: «La inteligencia artificial es el sueño de cualquier dictador y podría poner en peligro la democracia si no se regula bien»
El catedrático sevillano y experto en Derecho Administrativo dirige la primera cátedra de Inteligencia Artificial y Derecho Público creada en España
«En la Universidad de Harvard vi a amas de casa entrando en las clases. Son más abiertos que en España»
«Empiezas con 80 alumnos y luego te quedas con 20 ó 30 y con esa renuncia tememos que no haya relevo cuando nos jubilemos»
Esta funcionalidad es sólo para registrados
Iniciar sesiónAntonio José Sánchez dirige el departamento de Derecho Administrativo de la Universidad de Sevilla y tomará posesión en noviembre de la cátedra Soltel de Inteligencia Artificial y Derecho Público, pionera en España. Premio Extraordinario de Doctorado, este catedrático sevillano ha recibido varios reconocimientos de excelencia ... docente y realizado estancias en Estados Unidos, Alemania e Italia. Fue discípulo de Alfonso Pérez Moreno y es el último representante de la brillante Escuela de Sevilla de administrativistas creada en Sevilla hace más de medio siglo por Manuel Clavero Arévalo.
–La Facultad de Derecho de Sevilla ha sido históricamente una de las mejores de toda España. ¿Lo sigue siendo?
–Creo que sí. Seguimos siendo la tercera de España en número de alumnos. En cuanto a investigaciones, somos la segunda, por detrás de la Complutense. Estamos en el top tres de España junto con la de la Universidad Autónoma de Barcelona. Y nuestro prestigio se ha demostrado una vez más con la creación de la primera cátedra de Inteligencia Artificial gracias al impulso de nuestro decano, don Fernando Llano. Y también se ha creado el primer máster oficial de Inteligencia Artificial.
–¿Por qué una cátedra de Inteligencia Artificial y Derecho Público?
–Porque el Derecho Público sufre el impacto de la Inteligencia Artificial; el privado también, pero creo que menos. Esta cátedra estará muy centrada en el Derecho Administrativo, Constitucional, Tributario y Procesal. El interés general se ve afectado por la implantación de la Inteligencia Artificial y le pongo varios ejemplos: el control biométrico de personas por las calles, el control de la emigración ilegal que llega a España en la frontera. Se pueden poner cámaras para controlar quién tiene antecedentes penales o quién no. Llegará un momento –y no a tardar mucho– en el que para acceder a los servicios públicos, al médico de familia o a una subvención del Ministerio de Vivienda, se hará un control y una discriminación conforme a una Inteligencia Artificial que va a discriminar según renta, según capacidad económica, etcétera. Soltel, una empresa sevillana de Inteligencia Artificial de las más importantes de España, con sede en varios continentes y 500 personas en plantilla, ha sido consciente de este impacto y ha apoyado la creación de esta cátedra que puede proporcionar seguridad jurídica a la hora de elaborar sus productos. Se puede incurrir en infracciones administrativas o en problemas éticos por el uso inadecuado de esta poderosa herramienta.
–Simon Johnsson, premio Nobel de Economía 2024, sostiene que el progreso no beneficia automáticamente a todos y que se necesitan instituciones y contrapesos a las élites para que eso ocurra. Y añade que sin salvaguardas, esos avances siempre tendrán víctimas. ¿Puede ser el caso de la IA?
–Sí, la regulación es totalmente necesaria, lo que los ingleses llaman el hard power, el poder duro, no el soft power, que ahora se estila de recomendaciones o instrucciones que no salvaguardan el interés general. La Unión Europea ha intentado regular el uso de la Inteligencia Artificial desde un enfoque de riesgo, es decir, prohíbe algunos sistemas de Inteligencia Artificial que son claramente lesivos, por ejemplo, los que explotan la vulnerabilidad de los jóvenes para convencerlos a hacer compras indiscriminadas o en materia de juegos y apuestas. Prohíbe sistemas que usan técnicas subliminales para convencerte sin que te des cuenta. También prohíbe el uso dato biométricos en tiempo real que es algo que hace China. Allí tienen cámaras en todas las calles y si una persona ha puesto algo en el internet chino en contra del partido, se le quitan puntos y no puede acceder a un servicio público o a una ayuda para una vivienda. Y la Unión Europea marca líneas rojas que no pueden ser usadas y permite algunos sistemas que son de alto riesgo en los que establece controles que son controles ex-antes y ex-post.
–¿Por ejemplo?
–Una empresa que use una IA para seleccionar empleo público. O la propia Administración del Estado o la propia universidad. Como la IA es un sistema de alto riesgo, porque puede haber sesgos que discriminen entre sexos o ideología. El algoritmo puede estar sesgado porque está mal entrenado desde el origen, y ese sesgo produce daños en persona. Se somete a este sistema a un control y una autorización. Hay otro sistema de autocontrol de las propias empresas se autocontrola y después está la Agencia Española de Supervisión de la Inteligencia Artificial, que se encarga de establecer un control por parte de un organismo público de autorización. Puede sancionar, incluso puede establecer la retirada de un sistema si es inadecuado.
–¿El Derecho puede ser una de esas salvaguardas que reclama Johnsson?
–Como decía mi maestro, el profesor Pérez Moreno, el Derecho es la quilla de la nave. El derecho administrativo es el que establece la dirección por donde se tiene que ir en materia de interés general. Hay que ir por un sistema de IA que sea seguro y eficaz, y que no dañe los derechos fundamentales ni el interés general. El reglamento europeo es un enfoque de mínimos, pero es que las competencias de la Unión Europea sobre mercado interior son las que son. Ha regulado una especie de semáforos sobre lo que no se puede hacer, lo que se puede hacer y lo que se puede hacer con ciertas limitaciones.
–¿Cree que la IA puede poner en peligro a la democracia?
–Sí, por supuesto. De hecho, uno de los sistemas prohibidos de IA por la Unión Europea son los que pueden afectar a las decisiones democráticas. Imaginemos un conflicto entre Rusia y la Unión Europea por el que Rusia mete un sistema que puede modificar la conducta electoral de la gente. Priorizando resultados en Google puede lograr que se difundan noticias falsas que lleven a la gente a tener un estado mental ('state of mind', como dicen los americanos), propicio para votar determinadas opciones que a los rusos les interesen. Puede hacerse para otras cosas que amenazan también las grandes cuestiones democráticas.
–¿Por ejemplo?
–El uso de un algoritmo opaco por parte del Ministerio de Transición Ecológica para la concesión del bono eléctrico a determinadas personas. Una sentencia del Tribunal Supremo de septiembre del año pasado refleja esta realidad. Los aspirantes metían sus requisitos en una caja negra que era el algoritmo y salía quién recibía y quién no el bono eléctrico. Una asociación sin ánimo de lucro llamada Civio lo recurrió porque no se sabía la motivación de ese acto. La Audiencia Nacional denegó el acceso al algoritmo pero el Supremo le corrigió y estableció que tenemos que tener también una democracia digital y que el algoritmo que produzca un efecto desfavorable en un administrado tiene que ser transparente. Por tanto, la transparencia está por encima de la propiedad intelectual que alegaba el Ministerio. La democracia no puede ser opaca. Yo no le puedo poner una nota a un alumno por un algoritmo.
–Los algoritmos marcan ya la concesión o no de una hipoteca a una persona.
–Yo no le puedo denegar a alguien una vivienda con un algoritmo. Ni le puedo denegar la entrada en España a nadie por un algoritmo. Si usamos algoritmos para todas estas decisiones, resulta que estamos en manos de un oráculo que no ha hecho el pueblo sino una empresa en Palo Alto (California). Un algoritmo que nadie conoce y que acaba afectando las decisiones esenciales y críticas de una democracia occidental.
–En Estados Unidos, que es donde más se está avanzando en sistemas de IA, junto con China, ya están surgiendo muchas voces críticas que están advirtiendo de que estos algoritmos opacos pueden acabar con la democracia.
–Efectivamente. Europa tiene un problema que es que en China no hay regulación. China está mucho más desarrollada a nivel de IA porque tienen dinero ilimitado. Y Estados Unidos, que tiene la tecnología, pero no tiene regulación, porque tanto demócratas como republicanos son liberales. Lo más que han tenido es una orden presidencial de Biden que prohibía los 'deep fakes' y la manipulación electoral. Todo lo demás lo permitía.
–¿Dónde queda Europa?
–Nosotros no tenemos tecnología y carecemos de un campeón digital. Tampoco tenemos dinero ilimitado como China. El papel de Europa, eso se llama efecto Bruselas, se limita a ser el pionero en la regulación de calidad. Y el reglamento europeo de IA está siendo copiado en algunos estados de los Estados Unidos y asiáticos, porque entienden que es la mejor regulación posible para desarrollar de formar segura y eficiente su respectivos sistemas de IA. Ese es el papel europeo ahora mismo.
–¿Estamos perdiendo el tren de la IA?
–Nosotros no tenemos campeones digitales para competir. Telefónica está en una tercera liga y no juega contra ChatGPT, OpenAI o Google.
–¿La regulación de la IA desincentiva la innovación en Europa?
–La ventaja de nuestra regulación es que los fabricantes europeos saben a qué atenerse, y tiene muy clara la seguridad jurídica de lo que pueden y no pueden hacer. El problema está cuando el producto se fabrica fuera de la europea porque ese fabricante no tiene las obligaciones que tiene un fabricante europeo. Respondiendo la pregunta, no vamos a incentivar grandes campeones europeos con un sistema garantista como el que tenemos. Pero podría decir que el reglamento europeo se acaba aplicando a las empresas norteamericanas que quieren acabar desplegando el sistema en Europa. Se tienen que acabar sometiendo porque el mercado europeo son 300 millones de habitantes con alto poder adquisitivo.
–Todavía...
–Sí. Esperemos que dure un poco más.
–Simon Johnsson asegura que todas las civilizaciones que alcanzaron una tecnología que consideraron definitiva acabaron hundiéndose y cita al Imperio Romano, el mundo árabe o la China anterior al comunismo. ¿Podemos estar ante una situación parecida ahora en el mundo con la IA?
–Aún no hemos llegado al límite que los investigadores llaman la singularidad, es decir, la autoconciencia por parte de la IA de que es una entidad por sí misma, independiente y poderosa por encima del ser humano. No hemos llegado a eso pero Sam Altman, por ejemplo, ya ha avisado de que la IA no tardará mucho en llegar a tener autoconciencia, y en ese momento puede no obedecer las órdenes de los humanos que la crearon. Entonces tendríamos un problema.
–Un problema grave...
–Por eso habría que obligar a las empresas que fabrican algoritmos de Inteligencia Artificial a que impidan esa capacidad de la propia IA de tener autoconciencia. Claro, aquí entramos un tema espinoso, porque mientras más avanzada es la IA, más capacidad tiene de pensar y más se vende y más usuarios tiene. Y la empresa no se quiere autolimitar porque quiere crear una IA tan libre que le ofrezca opciones al usuario que ni siquiera él ha pensado. Entonces, tenemos un problema aquí de choque de intereses entre las empresas y los reguladores. Imagínese una IA que entra en el sistema de guiado de armas nucleares. Eso ahora lo pueden hacer los hackers, pero una IA es un millón de veces más poderosa que un hacker. Por muchos cortafuegos que pongamos, llegará un momento en que la IA será inevitable y se va a meter en cuestiones críticas como redes eléctricas, servicios esenciales, cuestiones militares, control de la población. Y esto degraciadamente se puede producir. Yo te diría que es el sueño de cualquier dictador. Es decir, tener una IA que controla ciudadanos, que controla el voto, que controla la opinión pública. Esto es así desgraciadamente y la historia nos enseña que la naturaleza humana siempre que ha podido usar algo indebidamente lo ha hecho. De hí la importancia de esta cátedra o del derecho, en general, de poner límites y garantías para que no llegue ese momento.
-La fabricación de robots con IA y piel artificial que se asemejan a personas e interactúan como si lo fueran está creciendo en Estados Unidos de forma espectacular. ¿Si cometen algún daño quién será el responsable?
-La robótica está incluida en el reglamento europeo no como una entidad autónoma, sino en la medida en que integre un sistema de Inteligencia Artificial. No hay reglamento de robótica como tal sino un reglamento de IA. Siempre me ha interesado el tema de la robótica desde el tema de la responsabilidad y ya tenemos casos de robots que han ocasionado daños o incluso muertes. Pensemos en un cirujano operando con un robot, un brazo robótico con Inteligencia Artificial, abre y detecta un posible tumor. Pero imagínese que la IA dice que no es un tumor. ¿Qué hacemos? Mucho me temo que muchos funcionarios van a tragarse su opinión personal basada quizá en 30 años de experiencia y hará caso a la IA para que no lo demanden en caso de que se equivoque y tenga el que acabar pagando por una neligencia. Pero es que IA se puede equivocar como pasó en Estados Unidos con un Tesla con piloto automático que no tenía registrado en su base de dadtos a una mujer con un carrito y un bastón. Y no frenó y la mató. También puede ocasionar daños una IA que invierte en bolsa, se equivoca y hace perder 10.000 millones de euros a los fondos de inversión. ¿Y ahora quién paga? Cuando tenemos problemas de daños económicos o físicos, hasta ahora sabíamos que pagaba la administración cuando el daño era causado por un funcionario, y por el propio empleado si hay incumplimiento de obligaciones o negligencia. Con la IA se introduce un tercer elemento que ha hecho saltar por los aires en el tema de la responsabilidad. ¿Paga el fabricante que ha puesto un sistema de IA defectuoso? Puede ser una solución pero tenemos que repensar las categorías civiles y administrativas de la responsabilidad cuando la decisión la toma una máquina. Y las máquinas van a tomar decisiones en cuestiones críticas. Yo le quiero dar las gracias a Soltel, una empresa sevillana con muchos ingenieros sevillanos y andaluces por apoyar a una IA responsable, y por el denominado 'legal tech' que ya se está usando hoy en día por bufetes de abogados y letrados de Justicia porque es una herramienta que nos ayuda a los juristas a elaborar documentos y dictámenes con mucha más rapidez y con mucha más eficiencia. El control final siempre va a ser de la persona y, como decía antes, la IA puede ser desastrosa si está mal usada pero bien usada, con los límites que establecemos, es una herramienta que nos ayuda a todos a mejorar el trabajo.
Límite de sesiones alcanzadas
- El acceso al contenido Premium está abierto por cortesía del establecimiento donde te encuentras, pero ahora mismo hay demasiados usuarios conectados a la vez. Por favor, inténtalo pasados unos minutos.
Has superado el límite de sesiones
- Sólo puedes tener tres sesiones iniciadas a la vez. Hemos cerrado la sesión más antigua para que sigas navegando sin límites en el resto.
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para registrados
Iniciar sesiónEsta funcionalidad es sólo para suscriptores
Suscribete