ABC

El desafío de implantar un chip ético para «humanizar la tecnología»

Los repetidos escándalos por el mal uso empresarial de los datos reavivan el debate sobre los límites de la revolución digital

MadridActualizado:

Las leyes de la robótica que Isaac Asimov creó para su novela ya no parecen exclusivas de la ciencia ficción. Más bien, podrían ser el augurio (en 1942) de que los límites al vasto desarrollo de la tecnología son ineludibles.

Hace unos días, la Comisión Europea abrió una investigación contra Amazon por recopilar y utilizar «información confidencial» de terceros vendedores e incurrir, supuestamente, en prácticas contrarias a la competencia. No es sino la gota que colma el vaso, pues el gigante del comercio electrónico reconoció hace dos semanas que su asistente de voz, Alexa, graba las órdenes de sus usuarios. Polémica a la que se acaba de sumar Google, que ha confirmado que su altavoz inteligente escucha el 0,2% de las conversaciones de todo el mundo.

Mientras, Facebook se enfrenta a una multa de 5.000 millones de dólares, la mayor sanción impuesta jamás por la Comisión Federal del Comercio de Estados Unidos, tras una investigación que comenzó con el escándalo de Cambridge Analytica, la consultora británica que recopiló datos de 87 millones de usuarios de la red social con fines políticos.

Así las cosas, se antojan más oportunas que nunca unas reglas de juego que pongan coto a la explotación abusiva de la tecnología. Incluso ya hay esfuerzos para desarrollar un marco que establezca límites claros. Investigadores y expertos de la Universidad de Deusto, por ejemplo, han redactado una declaración de derechos humanos para la era digital. «Toda la información necesita ser simétrica, es decir, que no sirva solo a algunos», afirma Massimo Cermelli, uno de los autores del texto y profesor de economía en Deusto Business School.

El derecho al olvido —la supresión de toda información personal de la red—, a la gestión del «legado digital» después de la muerte o la transparencia en el uso de los algoritmos son solo algunos de los preceptos que firma esta declaración académica. En definitiva, «dejar en manos de las personas la voluntad de compartir o no sus datos», resume Cermelli. Tal y como sucede en el mundo analógico, los expertos indican que hay que tener herramientas para poder «gobernar» de igual forma la vida virtual.

Así, no consiste en oponerse a la tecnología, sino en lograr su «humanización», como señala Cermelli. Esto es, que el algoritmo esté, en última instancia, bajo la supervisión de un ser humano. Lo que no plantea menos problemas. Ya han proliferado las quejas que denuncian los «sesgos occidentales» con los que trabaja la Inteligencia Artificial (IA). Por ello, la ética digital se dirige a los creadores de la tecnología, los responsables de modificar los algoritmos para que el conocido «machine learning» —aprendizaje automático de las máquinas— incorpore valores humanos de respeto, libertad e igualdad.

El mundo pronto abrazará la red 5G y el Internet de las Cosas, un escenario en el que millones de dispositivos —25.000 millones en 2021, según la consultora tecnológica Gartner— estarán conectados entre sí y compartirán datos personales en tiempo real.

Dominar la IA

La IA aplicada a esta interconexión digital tiene un potencial inabarcable. En España se prevé un gasto de 23.000 millones de euros en el próximo año —el quinto país europeo que más invierte en ella—, según datos de IDC Research. Una inversión necesaria en tanto que los Gobiernos y empresas están inmersos en una carrera tecnológica. China, la segunda mayor economía del mundo, ya ha advertido de que «dominará la IA en 2030», y no parece una bravuconada cuando sus más de 1.300 millones de habitantes generan ingentes cantidades de datos y el régimen de Pekín aprueba políticas favorables al desarrollo de la IA. Pero este futuro no está exento de riesgos.

El 87% de los directivos de grandes compañías reconocen tener constancia de un uso cuestionable de la IA en los últimos dos o tres años, según un estudio elaborado por el Instituto de Investigación Capgemini. Desde la recopilación de datos personales de pacientes sin consentimiento, en el sector sanitario, hasta la dependencia excesiva de decisiones tomadas de forma automatizada y sin comunicarlo al cliente, en banca y seguros. Problemas originados por la falta de ética en el desarrollo de la IA, una tecnología que extrae conclusiones de modelos que, en muchos casos, quedan más allá de la comprensión humana.

Por otro lado, un compromiso moral repercute de forma positiva en la reputación de las compañías. Como refleja el informe de Capgemini, el 62% de los consumidores confiaría más en una empresa que hace un uso ético de la IA para interactuar con ellos y el 59% sería más fiel a la firma. Así, «la confianza generará mayor valor económico», afirma Cermelli, que propone sustituir la posición dominante de las compañías por la cooperación con el consumidor.

Y aunque las peores pesadillas de algunos contemplan un mundo bajo el yugo de las máquinas, esta teoría queda lejos de la realidad. Tal y como explica Cermelli, «el mundo digital es capaz de prever todo con sus elementos, pero el algoritmo no concibe la serendipia, el factor aleatorio del ser humano».