Europa debate prohibir la inteligencia artificial en la clasificación de individuos y regular la vigilancia masiva

Los expertos aconsejan a la Comisión Europea apostar por el desarrollo de una IA ética, de confianza y que tenga al ser humano en el centro de su desarrollo

Actualizado:

La Inteligencia Artificial (IA), si no es de fiar, puede provocar impactos adversos en los individuos, la sociedad y el medioambiente, como advierte grupo expertos de la Comisión Europea, que insta a prohibir el empleo de esta tecnología en la clasificación de individuos y su regulación en la vigilancia masiva.

«Europa está entrando en la tercera ola de la digitalización», como advierte el último conjunto de recomendaciones del grupo de alto nivel de expertos en Inteligencia Artificial de la Comisión Europea. Una tercera ola en la que adquiere protagonismo la IA y cuya adopción se estima que puede impulsar el crecimiento de la actividad económica europea en torno al 20 por ciento para 2030.

La IA se puede desplegar «tanto de manera que incremente el bienestar humano como que lleve a su potencial daño», como recoge el informe. «Mientras crea una gran oportunidad para Europa, también implica ciertos riesgos sobre los que los legisladores son cada vez más conscientes».

Por ello, desde este grupo abogan por el desarrollo de una IA ética, de confianza y que tenga al ser humano en el centro de su desarrollo. Características que chocan con el empleo de esta tecnología en la categorización de las personas y la vigilancia masiva.

Con el objetivo de salvaguardar «los derechos fundamentales» de los servicios públicos basados en IA y de «proteger las infraestructuras societales», el grupo insta a seguir las «directrices éticas para una IA confiable», presentadas ante la Comisión el pasado mes de abril.

En concreto, instan a prohibir la clasificación masiva de los individuos basada en IA y a establecer «reglas claras y estrictas» para la vigilancia con motivo de la seguridad nacional y de otros intereses nacionales. Y a asegurar que no se usa para «suprimir o socavar la oposición (política) ni los procesos democráticos».

Los sistemas de Inteligencia Artificial pueden provocar discriminación o sesgos injustos, violaciones de la privacidad, exclusión social o económica o incluso degradación medioambiental.

Una forma de limitar el impacto negativo de la IA en las sociedades pasa por evitar la vigilancia masiva y «desproporcionada» de las personas. Los sistemas de inteligencia artificial que se desplieguen para garantizar la seguridad deben ser «respetuosos con la ley y con los derechos fundamentales» y estar alineados con principios éticos.

El grupo advierte también en su informe sobre la vigilancia de los consumidores con fines comerciales, especialmente «cuando concierne a servicios gratuitos», para lo que aconsejan la consideración de modelos alternativos de negocio.

El informe presentado este miércoles recoge en un conjunto de 33 propuestas, y como parte de los trabajos por concretarlos, en la segunda mitad de este año se desarrollará una fase piloto para mejorar y «asegurar la relevancia sectorial» de las directrices éticas de la IA de confianza.