La prohibición de la vigilancia por reconocimiento facial en espacios públicos divide a la UE
El Parlamento ha aprobado la Ley de IA que ya está siendo debatida por los estados miembro
La UE aprueba la ley para controlar los peligros de la inteligencia artificial
Madrid
Esta funcionalidad es sólo para registrados
Iniciar sesiónEl uso de reconocimiento facial en espacios públicos es uno de los temas más espinosos dentro de la Ley de inteligencia artificial (IA) que intenta sacar adelante la Unión Europea. El Parlamento, en Bruselas, dio ayer luz verde al proyecto de ley, que ... ahora pasará a ser debatido con los 27 estados miembro antes de su aprobación definitiva, que podría producirse, incluso, antes de que termine el año. Aunque, probablemente, no entraría en vigor hasta 2026.
La normativa, pionera a nivel global, segmenta a los distintos sistemas basados en inteligencia artificial en función de su peligrosidad y fija obligaciones para las empresas de desarrollo. La versión aprobada ayer, y que sigue abierta a cambios, es más restrictiva que las anteriores que habían compartido los legisladores. Además de la prohibición total de todas aquellas herramientas que puedan ser empleadas para clasificar a las personas a partir de su comportamiento o características personales, la ley restringe el uso de reconocimiento facial en espacios públicos. Tanto en tiempo real como a partir de grabaciones. También veta los sistemas de categorización biométrica en función del género, la raza o el estatus social, los sistemas policiales predictivos del comportamiento de los ciudadanos o aquellos dedicados al reconocimiento de emociones.
A pesar de que, en líneas generales, todos los eurodiputados están de acuerdo en la necesidad de poner límites al uso de esta tecnología, en boga desde hace meses gracias al lanzamiento de esa máquina parlante conocida como ChatGPT, algunos llaman la atención sobre el peligro de vetar, por completo, el empleo del reconocimiento facial en tiempo real.
Ese es el caso de varios miembros del Partido Popular Europeo, que esperan que el uso de la tecnología acabe estando reconocido en la normativa final, aunque, eso sí, en casos muy concretos: la lucha contra el terrorismo, la búsqueda de personas desaparecidas, especialmente menores y la detección de personas sospechosas de haber cometido un delito grave. Durante la votación de la normativa, 235 eurodiputados votaron a favor de mantener las excepciones para el uso de reconocimiento facial en tiempo real, mientras que 335 lo hicieron en contra. Por tanto, han acabado siendo eliminados de la normativa. Al menos, por el momento; hasta que las negociaciones con los estados finalicen.
Tecnología «problemática»
«El Consejo y la Comisión estaban a favor de mantener el uso de la tecnología en esos casos muy concretos y prohibirla de forma general. El Parlamento, sin embargo, está completamente dividido», explica en conversación con ABC Pilar del Castillo, eurodiputada del Partido Popular. «Las negociaciones del proyecto de ley han comenzado hoy. Habrá que ver lo que ocurre a este respecto. No está nada claro. Habrá que negociar bastante, pero se encontrará una solución», zanja la representante.
Los eurodiputados de agrupaciones progresistas han sido los que se han opuesto de una forma más firme al uso de reconocimiento facial en tiempo real. Ibán García del Blanco, eurodiputado del PSOE, explica a este periódico que, a su juicio, la normativa actual «cubre suficientemente» los riesgos derivados de la inteligencia artificial, ya que la tecnología de control biométrico «ni está madura ni parece que lo vaya a estar en un futuro cercano». Su uso , además, «es muy problemático desde el punto de vista de los derechos a la intimidad y la libre circulación». El representante hace hincapié en que el proyecto de ley cuenta con una enmienda que permite utilizar reconocimiento facial en grabaciones de espacios públicos para la persecución de un delito. Siempre con autorización judicial.
Control a ChatGPT
La Ley de inteligencia artificial también establece obligaciones para los sistemas de IA generativa, como ChatGPT o DALL-E, capaces de generar texto o imágenes a demanda del usuario. Según la regulación, las empresas detrás de su desarrollo deberán cumplir unos requisitos adicionales de transparencia —identificar el contenido creado como generado por IA, para ayudar, entre otras cosas, a distinguir las falsificaciones de las imágenes auténticas— y estar diseñados de forma que no puedan generar contenido ilegal. Además, deberán publicarse resúmenes detallados de los datos protegidos por derechos de autor que han sido utilizados para su desarrollo.
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para registrados
Iniciar sesiónEsta funcionalidad es sólo para suscriptores
Suscribete