El fin de la era del 'todo vale' para la inteligencia artificial
Los rápidos avances de esta tecnología han reavivado el debate sobre la necesidad de crear un marco legal que diluya sus riesgos sin dañar su potencial
Sam Altman, el treintañero de pelo alborotado que se hace de oro tras crear ChatGPT
Madrid
Esta funcionalidad es sólo para registrados
Iniciar sesiónLos modelos de inteligencia artificial generativa, que crean textos, imágenes o audios originales a partir de datos existentes, han registrado un ascenso meteórico en los últimos meses de la mano de herramientas como ChatGPT, capaz de contestar con coherencia a cualquier pregunta que le ... formulemos, o Midjourney, que produce ilustraciones en base a nuestras indicaciones. Que esta tecnología avanza a toda velocidad y cada vez replica mejor las tareas que hasta hace poco únicamente podían ser realizadas por los seres humanos es un hecho, pero también lo es que, en paralelo a su frenético desarrollo empresarial, está creciendo la preocupación por los potenciales peligros para la sociedad de una revolución que nadie sabe hasta dónde llegará.
Figuras como el magnate Elon Musk, el cofundador de Apple, Steve Wozniak, o el historiador Yuval Noah Harari, entre otras personalidades, firmaron a finales de marzo una carta abierta en la que instaban a pausar el entrenamiento de sistemas más potentes que GPT-4 durante al menos seis meses para, en ese tiempo, adoptar protocolos que incrementen la transparencia y la fiabilidad. Al margen de este llamamiento, las grandes potencias mundiales ya venían siendo más activas en la aprobación de normas que establezcan límites a las máquinas inteligentes. El Índice de Inteligencia Artificial 2023, realizado por la Universidad de Stanford, da cuenta de la fiebre reguladora: según los registros legislativos de 127 países analizados, los proyectos de ley relacionados con esta tecnología ha pasado de 1 en 2016 a 37 en 2022. En total, en ese periodo han visto la luz 123 leyes a nivel global vinculadas con la IA, con Estados Unidos (22), Portugal (13) y España (10) a la cabeza del ranking.
Leyes aprobadas relacionadas con la IA
Entre 2016 y 2021
En 2022
TOTAL
EE. UU.
Portugal
España
Italia
Rusia
Bélgica
Reino Unido
Austria
Corea del Sur
Filipinas
Francia
China
Alemania
Japón
Andorra
Argentina
Brasil
Bulgaria
Canadá
Croacia
Chipre
Islandia
India
Kiriguistán
Letonia
Lietchtenstein
Macao
Panamá
Eslovaquia
Eslovenia
EAU
13
9
22
13
11
2
5
5
10
2
7
9
7
2
9
5
2
7
4
2
6
5
5
5
5
1
5
4
3
1
4
3
3
2
1
3
3
3
2
2
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
Fuente: Universidad de Stanford / ABC
Leyes aprobadas
relacionadas con la IA
Entre 2016 y 2021
En 2022
TOTAL
EE. UU.
Portugal
España
Italia
Rusia
Bélgica
Reino Unido
Austria
Corea del Sur
Filipinas
Francia
China
Alemania
Japón
Andorra
Argentina
Brasil
Bulgaria
Canadá
Croacia
Chipre
Islandia
India
Kiriguistán
Letonia
Lietchtenstein
Macao
Panamá
Eslovaquia
Eslovenia
EAU
13
9
22
13
11
2
5
5
10
2
7
9
7
2
9
5
2
7
4
2
6
5
5
5
5
1
5
4
3
1
4
3
3
2
1
3
3
3
2
2
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
Fuente: Universidad de Stanford / ABC
Y es que el auge de estos sistemas ha hecho que los distintos Estados los miren con lupa por los riesgos que pueden entrañar para los usuarios. Solo hay que recordar el bloqueo temporal de ChatGPT en Italia, al detectar que el chatbot de OpenAI incumplía la ley de protección de datos de los consumidores, un veto levantado después de que la compañía estadounidense tomara las medidas exigidas por la autoridad italiana de protección de datos... La era del 'laissez faire' tiene los días contados y quizá la mejor prueba son las propias palabras del director ejecutivo de la empresa en cuestión, Sam Altman, durante su visita, esta misma semana, a Madrid, en la que aseguró que con la inteligencia artificial «debemos tener el mismo cuidado que con las armas nucleares», por lo que deslizó la idea de promover una institución al estilo del Organismo Internacional de Energía Atómica que ayude a controlar esta tecnología.
El consenso generalizado, tanto entre los expertos como entre los responsables de las corporaciones del sector, es que hace falta un marco legal que guíe la evolución de la inteligencia artificial. «Es una tecnología de gran impacto que necesita ser regulada para conseguir un impacto positivo, al igual que lo fueron otras con anterioridad, como internet, los automóviles o incluso la electricidad», asegura Idoia Salazar, cofundadora y presidenta del Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA). Remarca que incluso países como Estados Unidos, China o India, que han tendido a un desarrollo tecnológico con escasas restricciones, se están dando cuenta de la conveniencia de cierta regulación que acompañe a la actual sobre tratamiento de datos personales. «Como suele ocurrir, el enfoque europeo está siendo diferente, más cauto. Igualmente, pretende impulsar el uso de la inteligencia artificial, pero con una regulación más fuerte desde el inicio de su desarrollo y de su utilización», subraya.
La UE tiene en el punto de mira a ChatGPT: ¿es posible que prohíba la inteligencia artificial?
Rodrigo AlonsoEl Comité Europeo de Protección de Datos debatirá hoy la situación del chatbot, que ya ha sido bloqueado en Italia por presunto incumplimiento de la normativa
Lo cierto es que la Comisión Europea trabaja desde hace dos años para convertirse en el primer bloque del mundo en contar con un marco jurídico integral que garantice que los sistemas de IA de la UE sean seguros y respeten la legislación vigente en materia de derechos fundamentales y valores de la Unión, sin obstaculizar el desarrollo tecnológico. Cuando se dieron los primeros pasos para poner coto al mercado, los modelos generativos apenas eran conocidos por el gran público, un escenario que nada tiene que ver con el de nuestros días.
Conscientes de ello, el pasado 11 de mayo, las comisiones de Mercado Interior y de Libertades Civiles dieron luz verde a un texto que amplía las limitaciones de la propuesta original de Reglamento y que, con toda probabilidad, será refrendado por el pleno de la Eurocámara en una votación que se celebrará entre los días 12 y 15 de junio. El siguiente paso serán las negociaciones con el Consejo –que España presidirá a partir de julio– y con la Comisión para acordar la ley definitiva, que se espera tener lista hacia el final del ejercicio.
El comunicado publicado en la página web del Parlamento Europeo habla expresamente de GPT, la punta de lanza de la inteligencia artificial generativa que en apenas unos meses alcanzó la barrera de los 100 millones de usuarios. Deja claro que aplicaciones de este tipo habrán de cumplir con requisitos adicionales de transparencia, tales como revelar que el contenido ha sido elaborado por IA, diseñar el modelo para evitar que produzca contenido ilegal o publicar resúmenes de los datos protegidos por derechos de autor empleados para el entrenamiento.
La sombra de la fuga
A pesar de que el padre de ChatGPT ha pedido activamente una regulación para mitigar riesgos de esta tecnología, se ha mostrado reticente a las normas concretas que prepara Bruselas. «El borrador actual estaría sobrerregulando, pero hemos escuchado que se va a retirar», afirmó en declaraciones a 'Reuters'. Altman incluso ha abierto la puerta a la salida del chatbot del territorio europeo. «Los detalles importan. Intentaremos cumplir, pero si no podemos, dejaremos de operar», manifestó el empresario, según recoge 'Financial Times'.
La principal discrepancia deriva del deber de revelar cualquier material protegido por derechos de autor utilizado para capacitar al sistema, contemplado en el artículo 28b de la propuesta de regulación. «Teniendo en cuenta que OpenAI no da detalles de los textos que emplea, esto les supone un punto importante de fricción. Con las obligaciones de transparencia, en general, GPT-4 ha adoptado una política muy restrictiva de publicación de características del modelo», interpreta Pablo Haya, director de Business and Language Analytics en el Instituto de Ingeniería del Conocimiento (IIC), centro privado de I+D+i pionero en inteligencia artificial.
Más allá del popular chatbot, la normativa fija cuatro niveles de riesgo (inaceptable, alto, limitado y mínimo) para los sistemas de IA, con las consiguientes obligaciones. Idoia Salazar pone varios casos: «Se prohíbe el uso de sistemas de IA para categorización de personas físicas –como pasa en China– o el uso de cámaras de reconocimiento facial con IA para el seguimiento de personas instaladas en vías públicas». La experta comenta que será de alto riesgo cualquier sistema que produzca una repercusión, de alguna clase, sobre la vida de la población, como es el empleo de sistemas de IA en un departamento de Recursos Humanos para contratar personal. «Por otro lado, los 'deepfakes' deberán someterse a un requisito de transparencia, como rotular que se ha usado el sistema de IA para manipular el vídeo. Otros sistemas no tendrán ningún tipo de requerimiento, ya que son usados para automatizar tareas sin ningún impacto», resume.
Joaquín Muñoz, socio del área de nuevas tecnologías del despacho Bird & Bird, considera que los sistemas de IA son tan potentes desde el punto de vista técnico que es inevitable que iniciativas como el futuro Reglamento se queden cortas: «Nunca podrá abarcar todos los supuestos de hecho ni todos los usos de la IA, pero sirve como punto de referencia para determinadas situaciones que se entienden que pueden llegar a tener un gran impacto en derechos y libertades fundamentales, al plantear cuestiones de seguridad básicas».
En esa línea se mueve Juan Pablo Peñarrubia, vicepresidente del Consejo General de Colegios Oficiales de Ingeniería en Informática (CCII), que señala que ninguna ley es capaz de regular toda la casuística de una tecnología y menos de la inteligencia artificial, caracterizada por un alto grado de innovación y de aplicabilidad potencial. Anticipa que la normativa europea cubrirá aspectos básicos porque hay competencias que son de los Estados miembro y, en concreto, se refiere a la cualificación exigida para llevar a cabo ciertas actividades. «En el ámbito médico –menciona como ejemplo–, un entorno también muy innovador, el marco legal funciona porque se regula qué profesionales pueden hacer según qué cosas. Cada Estados miembro tendrá que evaluar si, por una razón de interés general, para sistemas de inteligencia artificial de alto riesgo exige que un profesional con una determinada cualificación sea el jefe de proyecto o supervise el diseño del producto. Está constatado que es una herramienta eficaz para que la regulación funcione porque hace de colchón ante la imposibilidad de regular todas las casuísticas».
Asumible para todos
Otra de las claves para que la futura norma blinde los derechos sin torpedear la innovación es que sea asumible para todos. «Tenemos que lograr que la implementación desde el punto de vista práctico no perjudique a las pymes ni a la comunidad de código abierto, con menos músculo financiero que las grandes tecnológicas para cumplir con el compliance», remarca Haya, del IIC. La exigencia de publicar resúmenes de los datos protegidos por derechos de autor usados para el entrenamiento de los sistemas, dice el experto, sirve para ilustrar las dificultades que puede afrontar una empresa que quiera desarrollar una IA generativa. «Dependiendo cómo se entienda que hay que proveer este resumen puede ser muy costoso o imposible asegurar que están incluidas todas las obras con derechos de autor. En cambio, un mecanismo sencillo sería permitir que cualquiera pudiera consultar si su obra está incluida», expone, alertando de que otro punto aún por esclarecer es cómo se determinará si un sistema es de alto riesgo, dado que en esa categoría los controles son más estrictos.
Junto con la regulación europea en camino, Estados Unidos, hogar de los gigantes tecnológicos que lideran los mayores progresos en esta tecnología, investiga posibles líneas de acción para mitigar sus consecuencias indeseadas. En su reciente comparecencia ante el Senado del país, el CEO de OpenAI defendió la necesidad de regular la inteligencia artificial y que esas normas garanticen que el público acceda a los múltiples beneficios de una tecnología que «si sale mal, puede salir muy mal». El cómo abordará el país este desafío es aún una incógnita, aunque en la audiencia se sugirieron ideas como la creación de una agencia similar a la FDA o la puesta en marcha de laboratorios independientes que otorguen a los sistemas de IA una nota parecida a la calificación nutricional de los alimentos.
Son varias las propuestas encima de la mesa, pero el camino hacia una legislación específica será complicado. «El desarrollo de la IA está ocurriendo exponencialmente y, en cambio, la regulación va muy lenta. Es importante que las empresas que la usen o la desarrollen empiecen ya a crear una conciencia más clara respecto a la necesidad de tomar medidas de responsabilidad y ética desde el inicio. Las herramientas para hacerlo ya existen, tan solo tienen que ser más conscientes de que las deben de usar. En OdiseIA hacemos asesoría a empresas en este sentido», apunta Idoia Salazar.
La brecha entre la velocidad de las disrupciones y de la regulación es uno de los escollos a superar, pero no el único. «Las empresas son muy reticentes a abrir sus algoritmos. Alegan motivos de propiedad intelectual, económicos y de seguridad», advierte Juan Ignacio Rouyet, profesor de la Universidad Internacional de La Rioja (UNIR) y autor del libro 'Estupidez artificial. Cómo usar la inteligencia artificial sin que ella te utilice a ti' (Libros.com). ¿Qué alternativas hay? «Podemos mirar lo ocurrido en el pasado. La regulación protege ex post, pero nos falta la parte ex ante. Ahí entran en juego los estándares con reconocimiento internacional como las normas ISO. Habría que ir en esa dirección, hacia la adhesión voluntaria de las empresas a un sello de IA responsable para así imponerse a sí mismas unos controles en base a una estandarización universal», afirma, no sin aclarar que hay sistemas de IA que no pueden dejarse a la voluntad.
«Algunos usos –dice– son tan críticos que deberán contar con una regulación ex ante». A su juicio, los temores en torno a la inteligencia artificial responden a un momento de 'shock' porque estamos asistiendo a su verdadera explosión, pero se muestra optimista de cara a los próximos años: «Otras tecnologías en el pasado presentaban peligros y hemos encontrado el equilibrio entre riesgo-beneficio».
El reto de armonizar
La duda está en si es plausible homogeneizar las condiciones exigibles a estos sistemas mediante una normativa global o cada potencia legislará por su cuenta. Entre las fuentes consultadas reina el escepticismo. «La idea de un marco regulatorio/ético a nivel global es deseable, pero poco viable, al menos por ahora», apunta Salazar, de OdiseIA. Bajo su punto de vista, hay intereses diversos respecto a esta tecnología en los distintos países. «Algunos prefieren esperar algo más antes de legislar por el problema que puede suponer de frenar esta tecnología. Además, hay concepciones diferentes de aspectos relativos a los derechos fundamentales, como la privacidad, en función de la perspectiva cultural del país en cuestión», justifica. Por este motivo, cree que es importante sentar unas bases comunes, pero también que cada país, en función de sus necesidades, trabaje en normas específicas adaptadas a su propio entorno empresarial y social.
Para Joaquín Muñoz, del despacho Bird & Bird, una legislación de alcance global es quimérica. «Lo que se delimita en la normativa también es reflejo de la sociedad y el acercamiento a determinadas cuestiones no es el mismo en todas las culturas», comienza por destacar. En los aspectos básicos, dice, sí puede haber un consenso, pero la aplicación acabará siendo distinta. «EE.UU. fomenta más la libertad de empresa y Europa la protección del usuario», añade. Por ello, vislumbra un panorama en el que cada región establecerá sus estándares de seguridad y «si no se cumplen, el sistema no podrá usarse, como sucede con el marcado CE de productos que se pueden vender en la UE».
Esta visión es compartida por Pablo Haya, del IIC: «A día de hoy es inviable una regulación global. Sirvan de ejemplo las dificultades para ponerse de acuerdo en un riesgo tan tangible como el cambio climático y el retraso que hay en la adopción de medidas. Lo más natural, por cómo funciona la geopolítica, es que se desarrollen legislaciones regionales».
La opinión mayoritaria, pues, es que es positivo armonizar la regulación, pero representa un reto mayúsculo. «Habría que sortear barreras políticas, económicas y éticas», sinteriza Rouyet, profesor de la UNIR. La Administración del Ciberespacio de China, de hecho, ha presentado el borrador de una normativa que regulará el sector, al que exigirá que el contenido creado por modelos generativos «refleje los valores fundamentales socialistas» y no «socave la unidad nacional» ni «incite a dividir el país». Pekín ha vetado ChatGPT mientras que gigantes patrios como Baidu, SenseTime y Alibaba han lanzado sus propias aplicaciones.
Factor diferencial
Cabe preguntarse si una atomización de la legislación puede perjudicar la competitividad de las regiones cuyas reglas sean más proteccionistas de los derechos de los usuarios, como es el caso de Europa. Pablo Haya reivindica que cuando se habla de competitividad, hay que considerar todos los factores, no solo la regulación, y alude a la inversión de cada región. Según la Universidad de Stanford, la inversión privada en IA de EE.UU. fue de 47.400 millones de dólares en 2022, la de China de 13.400 millones y la del país europeo líder, Alemania, de 2.350 millones.
E n lo que respecta a la regulación, los expertos descartan que mayor exigencia se traduzca en menor competitividad. «La regulación de la protección de datos en Europa es más restrictiva que en EE.UU. y, sin embargo, hay empresas americanas operando aquí. La ventaja de la UE es que somos muchos millones de habitantes, por lo tanto, sigue como un mercado interesante», indica Rouyet, que vaticina que contar con un marco legal estricto no atenta contra la innovación de las empresas europeas, sino que crea una IA más confiable. Un extremo que refrenda Juan Pablo Peñarrubia, vicepresidente del CCII: «Hace años se decía que el RGPD iba a ser el suicido de las empresas informáticas europeas y que iba a penalizar la competitividad, pero la realidad es que se ha tomado como referencia y los países que durante la tramitación pensaban que era un disparate, acabaron asumiéndolo porque la sociedad lo exigió. Con la IA pasará lo mismo».
MÁS INFORMACIÓN
Solo el tiempo aclarará el devenir de esta tecnología, pero de lo que cada vez hay menos dudas es de que, sea cual sea su futuro, estará sujeto a normas específicas que controlen sus potenciales peligros.
Límite de sesiones alcanzadas
- El acceso al contenido Premium está abierto por cortesía del establecimiento donde te encuentras, pero ahora mismo hay demasiados usuarios conectados a la vez. Por favor, inténtalo pasados unos minutos.
Has superado el límite de sesiones
- Sólo puedes tener tres sesiones iniciadas a la vez. Hemos cerrado la sesión más antigua para que sigas navegando sin límites en el resto.
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para registrados
Iniciar sesiónEsta funcionalidad es sólo para suscriptores
Suscribete