Hazte premium Hazte premium

Los algoritmos aprenden ética

Controlar la perpetuación de sesgos discriminatorios que puede conllevar el deficiente uso masivo de datos se ha convertido en el gran desafío de la inteligencia artificial

Laura Montero Carretero

Esta funcionalidad es sólo para registrados

No es casualidad que, entre miles de títulos disponibles, las plataformas de ‘streaming’ nos muestren en el catálogo los contenidos que nos apetece ver . Ni que en las redes sociales nos salten las publicaciones que son de nuestro interés y consiguen que permanezcamos más tiempo con el móvil. Tampoco que después de haber buscado vuelos, nos aparezcan por todas partes anuncios de aerolíneas. Detrás hay algoritmos haciendo de las suyas , analizando nuestros movimientos en la red para categorizarnos y saber lo que nos gusta. Sin apenas ser conscientes, vivimos rodeados de estas fórmulas matemáticas alimentadas por ingentes cantidades de datos. Pudiera parecer que solo intervienen en ámbitos inocuos, en los que los fallos no acarrean consecuencias graves, pero su uso se extiende a procesos relevantes en los que los errores se pagan muy caro.

Empresas e instituciones públicas se valen de ellos para determinar, por ejemplo, si un ciudadano es merecedor de recibir un bono social, obtener un préstamo, entrar en una universidad u optar a un trabajo. Es incuestionable que las máquinas procesan más rápido la información para la toma de decisiones . El problema es que, en función de cómo hayan sido programadas, sus resultados pueden ser discriminatorios para ciertos colectivos.

El verano pasado, sin ir más lejos, el Gobierno británico recurrió a un algoritmo para calcular la nota de selectividad ante la ausencia de exámenes presenciales que resultó perjudicial para los alumnos de escuelas desfavorecidas , ya que no solo tenía en cuenta el historial del estudiante, sino también el del centro educativo. Antes, en 2018, Amazon se vio obligado a ‘despedir’ a su algoritmo de reclutamiento porque prefería a los hombres en trabajos de desarrollo de software y otros puestos técnicos.

A pesar de la objetividad que se les presupone, los algoritmos no están libres de sesgos. «Cuando se automatizan procesos, se está introduciendo infraestructura computacional y, como cualquier tipo de infraestructura, no puede ser perfecta para todos y cada uno de los individuos de una sociedad porque son medidas de impacto colectivo. Es imposible hacerlo personalizado, ya que hablamos de una tecnología que se basa en estadística y la estadística solo entiende al individuo genérico», explica Lorena Jaume-Palasí , miembro del Consejo Asesor de Inteligencia Artificial del Gobierno y de la red de expertos de Los 100 de Cotec.

En esta línea, ahonda en que no se puede crear un algoritmo libre de sesgo o discrminación porque «técnicamente hablando, su tarea es discriminar». Lo que sí se puede hacer es «entender los pros y los contras, en qué contexto y cómo se aplica y qué medidas se tienen que tomar para contrarrestar determinados problemas que surgen cuando uno utiliza este tipo de tecnología». Entre esos problemas, están las cuestiones de asimetría en los datos.

«Hay poblaciones –dice– que, en según qué contextos, están sobrerrepresentadas estadísticamente. Teniendo en cuenta que en muchos casos se usan esos datos para hacer presuposiciones de lo que pasará en el futuro, ahí surgen sesgos y problemas porque se está tomando el pasado como un ‘status quo’ positivo , con independencia de si en esa época las decisiones que se tomaban en base a la estadística eran correctas o incorrectas, éticas o no».

Por eso es clave que los algoritmos estén bien construidos. «La inteligencia artificial (IA) aprende de lo que se le enseña, lo que se le enseña forma parte de la tradición y, en ese sentido, tenderá a replicar en el futuro las diferencias de trato que se hayan podido producir en el pasado . Por este motivo, cuestiones como la transparencia, la explicabilidad, la mitigación del sesgo, etc. cobran importancia», señala José Luis Flórez , director de Plaiground, la unidad de negocio especializada en inteligencia artificial de Minsait, que colabora con startups, freelances y académicos. De cara a evitar situaciones de desigualdad de oportunidades o de discriminación, tal y como destaca el experto, la buena noticia es que en la actualidad existen mecanismos de control.

Auditar algoritmos

A ello se dedican empresas como la española Eticas Consulting, fundada por Gemma Galdón . Su servicio estrella son las auditorías de algoritmos para asegurarse de que operan bien desde diferentes puntos de vista, incluyendo el ético. «En general, en primera instancia no podemos hacer una auditoría porque nos encontramos con algoritmos de muy baja calidad o que no han tenido en cuenta muchos de los riesgos en relación con los sesgos. Identificamos los problemas que existen y los arreglamos, de manera que estén preparados para funcionar de una forma correcta y ser auditados periódicamente», comienza por aclarar. Los riesgos de sesgo pueden ser de diversa índole.

«Empezamos valorando los sesgos de selección de las bases de datos : es frecuente que los clientes hayan utilizado los datos que tenían y no los que necesitaban para programar el algoritmo», explica. Como caso más evidente, Galdón cita el algoritmo de priorización hospitalaria de una aseguradora de Estados Unidos, que asignaba riesgo en base a datos financieros y no a datos médicos.

Una segunda posibilidad son los sesgos históricos , que se ponen de manifiesto en sectores como el bancario. «Está demostrado que las entidades dan a las mujeres entre diez y veinte veces menos crédito que a los hombres. Como somos menos en la base de datos histórica y el algoritmo prioriza la mayoría, entiende que el mejor cliente es el hombre», detalla. Puede pasar también que el modelo algorítmico elegido no sea el adecuado : «Identificar lo mayoritario tiene sentido para el algoritmo de Netflix, pero si trabajas con muestras donde puede haber colectivos minoritarios e igualmente deseables como clientes, no sirve». Según Galdón, todos estos puntos de discriminación, si se identifican, son fáciles de solventar , incluso en supuestos de opacidad, es decir, cuando no tienen acceso al código fuente porque el desarrollador que vendió el algoritmo a su cliente se niega a enseñarlo.

Los servicios de la firma son contratados por la administración pública , para evitar la incorporación de algoritmos que puedan dañar a la ciudadanía, así como por empresas privadas . «Tenemos muchos clientes en el sector salud, bancario y de seguros. Recientemente, se nos está acercando bastante el Ibex-35», cuenta la CEO de la empresa.

Algo está cambiando en el tejido empresarial en relación al uso ético de los algoritmos sustentados en IA. «En los últimos años ha habido sensibilización por el Reglamento General de Protección de Datos (RGPD) y las multas por incumplimiento , que han establecido un precedente útil en el uso de la IA», apunta Flórez, de Plaiground, que sostiene que numerosas compañías europeas ven en la ética algorítmica un elemento de diferenciación competitiva a nivel internacional.

Desconocimiento

Se dan pasos en la buena dirección, pero todavía queda camino por recorrer. « Como sociedad hemos sido extremadamente ingenuos en nuestra relación con la tecnología . Nos hemos creído que cualquier cosa que salga de una máquina tiene más credibilidad que lo que haga un humano», lamenta Galdón. Piensa, eso sí, que cuando nos demos cuenta de que somos víctimas de malas decisiones algorítmicas, «la tendencia a confiar más en las máquinas que en las personas se irá balanceando».

El hecho de que hasta ahora la industria se haya desarrollado, a efectos prácticos, sin apenas regulación, ha dado lugar a situaciones indeseables. «Como siempre ocurre con las nuevas tecnologías, se han empezado a usar sin haber considerado los posibles riesgos , como es el caso de su empleo en los recursos humanos», asegura Idoia Salazar , presidenta de OdiseIA (Observatorio del Impacto Social y Ético de la Inteligencia Artificial), experta en el Observatorio de Inteligencia Artificial del Parlamento Europeo y profesora de la Universidad CEU San Pablo.

La labor de organizaciones como la que preside es precisamente aumentar la concienciación para evitar impactos negativos por inconsciencia. «Existe desconocimiento por parte de empresas y organismos respecto a cómo usar de forma responsable esa tecnología. Saben que se tienen que subir al carro, pero no conocen bien las implicaciones », comenta. Otra pata importante es la educación de la sociedad en su conjunto . «Tenemos que hacer personas con un mayor espíritu crítico que sean capaces de tomar la decisión del algoritmo simplemente como una opción y no dejarnos guiar por lo que digan las máquinas, que a menudo están controladas por grandes empresas y nos pueden llevar a una sociedad súper controlada», advierte.

Cabe recordar que la Comisión Europea presentó en abril su propuesta de reglamento para regular el uso de la IA –se prevé que entre en vigor en 2023–, que divide estos sistemas en cuatro niveles de riesgo, a los que impone más o menos obligaciones en función de su categorización . Por ejemplo, los empleados para determinar el acceso a la educación, la selección de personal y la calificación crediticia de las personas, entre otros, se consideran de alto riesgo, estando sujetos a obligaciones estrictas antes de que puedan comercializarse. El ejecutivo español quiere que nuestro país sea el primero en probar técnicamente la norma.

Gemma Galdón es tajante: «Tenemos un mercado que no está al nivel de los desafíos que significa implementar IA en entornos de alto riesgo. El reglamento dará seguridad jurídica a todos los actore s». Algunos expertos, eso sí, advierten de puntos revisables. «El problema viene de lo que supone fiscalizar hasta el último detalle del algoritmo: a más explicabilidad, a lo mejor menos precisión. Esta disyuntiva y cómo se certifica el cumplimiento de la normativa es donde hay un terreno más gris», indica José Luis Flórez. Sobre quienes defienden que la propuesta europea podría sofocar la innovación, Galdón entiende que cuando no hay regulación lo que le llega al consumidor puede ser peligroso . «En tecnología estamos como cuando en el siglo XIX vendían cocaína en las farmacias», compara. Flórez, por su parte, opina que preservar la privacidad y la ética «es un sello para competir en mejores condiciones en otros mercados».

Esta funcionalidad es sólo para suscriptores

Suscribete
Comentarios
0
Comparte esta noticia por correo electrónico

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Reporta un error en esta noticia

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Muchas gracias por tu participación