España no es la única preocupada con ChatGPT: los planes para regular la inteligencia artificial
En la UE hay dudas sobre cómo encajar la plataforma en la normativa sobre inteligencia artificial propuesta en 2021, que sigue pendiente de aprobación
La Agencia de Protección de Datos investigará a OpenAI, propietaria de ChatGPT

Mientras las grandes tecnológicas corren para poner a disposición de los usuarios todo tipo de herramientas basadas en inteligencia artificial (IA), países de todo el mundo comienzan a dar los primeros pasos para regular esta tecnología y poner freno a sus potenciales riesgos. Tanto en ... Occidente como en Asia. El jueves el Comité Europeo de Protección de Datos anunció la formación de un equipo de trabajo destinado a estudiar una posible violación de la normativa europea por parte de ChatGPT, esa máquina capaz de responderte, prácticamente, a cualquier pregunta que le hagas. Todo después de la decisión de Italia bloquear la herramienta por la falta de transparencia de esta acerca del tratamiento que hace de la información del internauta.
Por su parte, el Gobierno de Estados Unidos, ha registrado hace apenas unos días una consulta pública destinada a encontrar la forma adecuada de regularizar plataformas como ChatGPT, pero también otras, como Midjourney o DALL-E, capaces de crear imágenes, algunas de gran realismo, a partir de un puñado de palabras. En el documento, la Administración llama la atención sobre la necesidad de encontrar mecanismos para que «los sistemas de IA sean legales, efectivos, éticos, seguros y, por lo demás, confiables». Además, se abre la puerta a que las inteligencias artificiales comiencen a ser auditadas a nivel nacional antes de su lanzamiento, todo con el fin de dilucidar si contienen sesgos dañinos y pueden generar desinformación.
Falta transparencia
China va un paso más allá. El regulador de Internet compartió una propuesta en la que se recogen controles estrictos para todas aquellas herramientas que generen contenido de forma automática. El estado quiere obligar a que las inteligencias artificiales que quieran operar en el país sean sometidas a una revisión de seguridad por parte del Gobierno. Asimismo, las hace responsables de los errores que puedan cometer las máquinas, que también deben respetar la normativa de propiedad intelectual. A pesar de que la reglamentación está abierta a comentarios hasta el 10 de mayo, Pekín avisa de que entrará en vigor antes de que termine el presente 2023.
Los movimientos de la UE y de las dos grandes potencias globales llegan apenas unos días después de que más de mil expertos firmasen una carta abierta en la que se solicitaba una moratoria en el desarrollo de nuevos sistemas generativos de texto, audio, vídeo o imagen con el fin de encontrar unos estándares que ayuden a mitigar sus posibles riesgos. Los firmantes, entre los que se encuentran varios académicos españoles, remarcaban el enorme impacto que estas máquinas -que no han sido sometidas a ningún control externo- pueden tener en el mercado laboral, así como su potencial para generar desinformación.
Todos los expertos en IA consultados por ABC durante los últimos días coinciden en la importancia de que todas las máquinas capaces de generar contenido estén sometidas a algún control externo. Y, para ello, hace falta que los estados intervengan. «Hay que encontrar alguna forma de certificar que una IA no tiene sesgos importantes ni comete fallos básicos. Como mínimo, debería ser capaz de explicarte claramente de dónde ha aprendido», señala Cristina Urdiales, catedrática de Robótica en la Universidad de Málaga y doctora en inteligencia artificial.
Muchas aristas
La UE no solo está intentando buscar una solución a las posibles vulneraciones de ChatGPT en materia de protección de datos. Actualmente, los legisladores están intentando encontrar la forma de armonizar la Ley de inteligencia artificial, propuesta en 2021 y todavía pendiente de aprobación, con la aparición de sistemas generadores de texto e imágenes. Numerosos académicos y algunos legisladores abogan por su introducción dentro del rango de inteligencias artificiales de 'alto riesgo' recogido en la normativa, lo que obligaría a los desarrolladores a cumplir requisitos más estrictos de transparencia, seguridad y supervisión humana. Aunque el desenlace de la cuestión se antoja bastante complicado.
«No cabe duda de que la regulación presentada en 2021 se queda corta», explica a este diario Samuel Parra, jurista especializado en asuntos tecnológicos y protección de datos. El experto apunta que, si OpenAI quiere seguir operando en Europa debe ser mucho más transparente en materia de privacidad: «La parte de política de privacidad de ChatGPT para europeos es medio folio. Insuficiente».
En la misma línea se mueve Ofelia Tejerina, abogada y presidenta de la Asociación de Internautas en España, que, además, pone encima de la mesa problemas relacionados con la confidencialidad y la propiedad intelectual: «Mucha gente está utilizando ChatGPT para trabajar sin darse cuenta de que, en realidad, está compartiendo datos internos de su compañía con OpenAI». «Llegados a este punto, frenar es imposible. Hay que empezar por la transparencia en el uso de datos, adaptar y aprobar la normativa europea de 2021 y formar a los usuarios», zanja la jurista.
En lo que eso ocurre, Ulises Cortés, catedrático de Inteligencia Artificial de la Universidad Politécnica de Cataluña, aboga por el bloqueo en UE de soluciones como ChatGPT: «Espero que haya una prohibición muy pronto y que se explique bien a la población cuáles son los peligros aquí. Que no son solo la privacidad, estamos habla ndo de muchos puestos de trabajo e incluso la democracia».
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para suscriptores
Suscribete