Captura de la película «Terminator»
Captura de la película «Terminator» - ARCHIVO

Por qué la inteligencia artificial aún no es Terminator

El automatismo de los sistemas lleva más de 50 años sin un consenso en lo referente a la regulación, mientras la nueva revolución industrial simplifica tareas en el mercado de trabajo

MadridActualizado:

La ciencia-ficción introdujo las posibilidades de las máquinas en un futuro no muy lejano. Películas como «Terminator» o «Robocop» hicieron el resto. Mostraron dos caras de la innovación, la de los indudables beneficios (facilitar procesos industriales, agilizar mecanismos, ayudar a las personas) y, por supuesto, los peligros tácitos de la robótica (descontrol, crecimiento del desempleo, esclavitud humana).

Sin embargo, ese debate iniciado desde hace años se encuentra en la actualidad en su punto ágilo. En un vaivén. Y más cuando se dan vueltas a los avances logrados. Si se le dota, por ejemplo, a un exoesqueleto de metal la posibilidad de tomar decisiones como un ser humano, ¿podrá revolucionar de esta manera el paradigma de la ética a través de la inteligencia artificial?

Hace unos años, el científico británico Stephen Hawking levantó la voz para advertir las posibles amenazas que podían representar la robótica, sobre todo cuando se le integra un sistema de inteligencia artificial: «Los robots son una amenaza para la humanidad. Los seres humanos que están limitados por la evolución biológica lenta, no podrían competir por la inteligencia artificial, y serían superados por ella», declaraba. Con el tiempo, otros conocidos miembros de empresas de tecnología y científicos se han sumado a la lucha por una regulación y un control que establezca los patrones éticos de una inteligencia artificial, ahora en fase de aprendizaje y desarrollo, para evitar que los efectos sean perniciosos en la sociedad.

«Los robots son una amenaza para la humanidad. Los seres humanos que están limitados por la evolución biológica lenta, no podrían competir por la inteligencia artificial»Stephen Hawking, científico

Mark Zuckerberg, el fundador de Facebook, es uno de los precursores del desarrollo de este tipo de tecnología. Pero, además, forma parte de otra postura, una contraria que alienta a los desarrolladores a no ser víctima del miedo. Por contra, otros empresarios de la talla de Elon Musk -dirige empresas como Tesla, SpaceX, Hyperloop), lidera ahora la versión moderada de implantar una serie de medidas reguladoras. Los dos empresarios han tenido un enfrentamiento sobre las medidas delimitadoras en las que se debería desarrollar los avances en esta materia, cuyo progreso actual se está acelerando gracias a modelos de aprendizaje profundo (deep learning).

Las opiniones generadas entorno a esta área han llegado a la formación de manifiestos y grupos contrarios a su desarrollo sin control, mientras que otros acreditan que ciertas posturas están fundamentadas simple y llanamente en el terror a lo desconocido. Este verano saltó la voz de alarma cuando Facebook tuvo que desactivar un experimento de inteligencia artificial porque dos «bots» programados para aprender a negociar habían llegado a la conclusión de que era más fácil regatear con un idioma más simple extraído del inglés; es decir, inventaron su propio lenguaje inentendible para el ser humano.

Enrique Domínguez, director estratégico de InnoTec, sostiene en declaraciones a ABC que en este tipo de experimentos como el de Facebook acaba en desenlaces imprevisibles como parte de lo que supone la propia investigación. Por lo que se debe matizar en el caso de estos dos bots que «no pensábamos que iban a reaccionar así», en lugar de «que no estaban programados para ello». A su juicio, «no se apagó porque se hubiera sucumbido al pánico, sino que ya se había cumplido el objetivo del experimento». Sin embargo, ambas inteligencias no habían sido programadas para que negociasen en un idioma entendible, porque al fin y al cabo las máquinas siguen sus normas establecidas en el código.

«Que una inteligencia que se haga consciente de que es inteligente y trate de asumir el control o imponerse sobre los demás, queda todavía muy lejos»Javier Sánchez, profesor de la UE

«Esto que veíamos en la película de Terminator de una inteligencia que se haga consciente de que es inteligente y trate de asumir el control o imponerse sobre los demás, queda todavía muy lejos», recalca el doctor en Inteligencia Artificial y profesor de la Universidad Europea Javier Sánchez. En la situación actual de la inteligencia artificial, «tenemos muchos sistemas que son especializados en labores concretas y las hacen muy bien, pero no hay un sistema que sea capaz de hacer muchas cosas muy bien hechas», añade.

Sin embargo, la preocupación existe. El debate, ahora, discurre no tanto en la tesitura de que un sistema funcione sin las pautas establecidas por un ser humano, sino por una falta de consenso en cuanto a tipo de ética y valores deben seguir los sistemas inteligentes, así como el nivel de ciberseguridad para que los delincuentes no alteren su lógica marcada. «Sí que hay ciertos asuntos que hacen preocuparnos como lo relativo a la privacidad y la seguridad. Porque se está empezando a ver sistemas que están muy especializados en un área y eso puede suponer una amenaza», indica el Dr. Sánchez.

Asimov tenía la respuesta

Como siempre, hay alguien que se adelantó a todo. Por ello, a menudo se suelen rescatar las leyes de la robótica que estableció Isaac Asimov y que han quedado plasmadas a lo largo de la literatura y las obras culturales de ciencia ficción. En primer lugar, según es código deontológico, un robot no debe hacer daño a un ser humano o por inacción permitir que un ser humano sufra daño. En el segundo caso, un robot debe hacer o realizar las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera ley. Por último, un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley.

«Es primordial que la inteligencia artificial «nunca supere la inteligencia de un ser humano, por algo muy sencillo, porque en el momento en que lo supere no tendremos capacidad para controlarlo»Isabel Fernández, de Accenture

Dichos mandamientos, explorados hasta la saciedad, son una buena manera de plantear la ética en la inteligencia artificial, pero «no responde realmente a los límites que deben tener la inteligencia artificial. La forma de expresarlo todavía «no es tan pragmático» como las reglas del libro «Yo, robot», sostiene a este diario Isabel Fernández, Managing Director de Accenture Analytics. En su opinión, es primordial que la inteligencia artificial «nunca supere la inteligencia de un ser humano, por algo muy sencillo, porque en el momento en que lo supere no tendremos capacidad para controlarlo». Resulta paradójico porque, según informes, el estado de la inteligencia artificial se próxima a alcanzar la inteligencia del ratón.

Sin una regulación concreta

Aún existen muchos flecos por resolver. Sobre todo, en materia legal y jurídica. ¿Por qué resultan tan difícil establecer un consenso internacional para el desarrollo de la inteligencia artificial? Esta cuestión es a menudo respondida por los ejemplos de comportamientos de los vehículos sin conductor: «un coche autónomo qué haría si tiene que decidir entre matar a sus ocupantes o cinco personas en un paso de peatones», expone Domínguez. Dentro de esa cuestión ética también trae consigo el componente de la cultura, que tampoco es universal.

En las distintas vertientes de la inteligencia artificial se han obtenido en ciertas áreas un nivel de especialización mucho mayor, por lo que Sánchez cree que «si esto lo combinamos con máquinas con autonomía de tomar ciertas decisiones estratégicas y operar en dispositivos que en este caso sí que podrían ser armas, pues puede suponer un riesgo». Ajeno a ese mundo apocalíptico de máquinas superiores, apunta a que hay que centrar los esfuerzos en controles de calidad.

Se habla mucho de inteligencia artificial, pero a qué nos referimos. Estos avances buscan, en primer lugar, simular comportamientos de los seres humanos que podemos interpretar como inteligentes, pero son los que toman decisiones de cierto calibre los que están en el foco de atención. IBM, por ejemplo, es una de las compañías más punteras en lo referente a lo que llaman sistemas cognitivos. Su software Watson se utiliza en algunas empresas para sus sistemas y se están empleando en casos reales como el diagnóstico de enfermedades. Cada software es distinto dependiendo del objetivo predispuesto al igual que la base de datos con la que está conectada, porque al fin y al cabo es una herramienta que lee muchos datos que una persona no podría abarcar, pero que despiertan dudas.

Enrique Domínguez explica así que «estos sistemas expertos a mí me preocupan desde el punto de vista de ciberseguridad, porque qué pasaría si alguien consigue atacarlos y modificar su comportamiento -bien sea alimentándolos de datos maliciosos para que cambian su manera de comportarse o de alguna manera transmutándolos para que de alguna manera cambien sus decisiones- ahí podríamos estar hablando de muertes de personas o incluso de colapsos de compañías a nivel económico».

Asimismo, Sánchez señala que «si estás hablando de diagnósticos clínicos estás hablando de protección de datos. «Parece una contradicción, pero algunas de las aplicaciones más interesantes y más complejas, algunas ya eran capaces de hacer diagnósticos hace años, de cómo iba a evolucionar una enfermedad y con tasas de aciertos muy altas», recalca.

Pautas propias

Algunas empresas, ante la falta de consenso, se han adelantado en la elaboración de sus propia pautas. Y las comparten con otros entornos, como en el caso de IBM. La compañía tecnológica ha establecido así tres principios. En primer lugar, lo que llaman el diseño que se refiere a «la capacidad de amplificar una persona», explica a este diario Elisa Martín-Garijo, directora de Innovación IBM España, «debido a la gran generación de conocimiento entorno a la era digital, toda la información es valiosa» de manera diferente para cada persona. En segundo lugar, -dice- el principio de credibilidad para que «generemos confianza a las personas de su utilización». Por último el principio de fiabilidad del comportamiento para que solucione un problema de un dominio específico.

Por otro lado, Martín-Garijo también aclara que los programas Watson como son diferentes, también funcionan a partir de bases de datos distintas. Al estar concentrados y separados, se reduce el riesgo del problema que pueda haber con la información, así como los datos que se vayan generando vayan únicamente a «la entidad que aporta la solución». Por otro lado, también hay un Watson de computación cognitiva en las amenazas de seguridad. Así, los seres humanos se sirven de esta tecnología como una herramienta y no como un sustituto, para poder concentrar los esfuerzos en tareas mucho más adecuadas para las personas.

En el caso de la postura Accenture, la compañía apuesta por lo que llama la Inteligencia Artificial Responsable porque creen «que es una fuerza transformadora de la sociedad que sí debe haber niveles de regulación, pero no porque tengamos miedo de lo que nos pueda traer la inteligencia artificial, porque estamos intentando que avance quitándonos tareas que pueden ser hechas por máquinas y dejándonos tareas que podemos aportar mucho más como humanos. Pero sí, tiene que estar regulada». Por lo que en ese puzzle de tareas, automatizan procesos «como en un Call Center que es capaz de reconocer tu voz».