Detalle del prototipo de coche autónomo de Google (ahora Alphabet)
Detalle del prototipo de coche autónomo de Google (ahora Alphabet) - REUTERS
TRIBUNA DE OPINIÓN

La falacia de la elección racional en Inteligencia Artificial

«El objetivo de la Inteligencia Artificial debe consistir en ser más perfecto que el hombre y complementar las limitaciones del ser humano», reflexiona el autor

Actualizado:

Nos estamos acostumbrado a leer en los medios, y de forma repetida, la pregunta sobre a quién debería salvar un coche autónomo en caso de accidente: si a un joven o una persona anciana. Y la respuesta es obvia: no debería tener que elegir.

La Inteligencia Artificial, al menos como los medios de comunicación hablan de ella -de una manera un tanto sensacionalista- se enfrenta a los mismos problemas que la clásica teoría de la elección racional. Como ha esgrimido Jon Elster, teórico social noruego, su debilidad radica en que la información solo puede ser perfecta en determinados ámbitos y situaciones. En los demás casos debe existir un decisor, que de acuerdo a unos determinados parámetros elija, siempre con cierto porcentaje de subjetividad. Esta parametrización subjetiva siempre será el problema.

El objetivo de la Inteligencia Artificial debe consistir en ser más perfecto que el hombre y complementar las limitaciones del ser humano. Ello basado en su capacidad de procesamiento de datos, medidos en tiempo y número. Si el hombre deposita su seguridad en manos de un algoritmo, o un conjunto de ellos coordinados, no lo hace para que repita los mismos problemas que causa su propia actividad y limitación. Al contrario, debe estar seguro de que los resolverá de una manera más eficaz.

En el caso que nos ocupa, el del coche autónomo, se ha de partir de la suposición de que en un sistema dominado por algoritmos, estos se comunican entre sí y forman una orquesta perfecta para que no se produzcan accidentes entre los vehículos. Si llegado el caso, una figura humana interrumpe esa armonía de la orquesta algorítmica o bien uno de los algoritmos sufre una anomalía de funcionamiento, ha de prevalecer la seguridad de sus ocupantes. Nadie en su sano juicio va a comprar o alquilar una herramienta si tiene posibilidad de que elija antes vidas ajenas que la suya.

Si fuera así, y mientras la legislación lo permita, es preferible ejercer la conducción manual. El hombre es, y debe ser egoísta en lo que concierne a su supervivencia. Si la seguridad de los ocupantes está garantizada, la regla definitiva sería la de causar los menos daños posibles a terceros. Pero no al nivel de tener que elegir entre vidas. La falacia errónea es la de obligar a elegir entre una vida y otra. Quizá el anciano de 80 años está a punto de descubrir la cura contra la última enfermedad mortífera, o hace feliz a más gente que un adolescente. O quizá el adolescente es el que dentro de 30 años sea un potencial asesino o un salvador de vidas en alta mar.

Y por muchos parámetros y conocimientos que posea un algoritmo, nunca va a ser exacto en sus decisiones, como mucho se basará en datos empíricos y en análisis probabilísticos. Se podría aducir que un algoritmo puede conectarse en una millonésima parte de segundo a las cuentas de Facebook de ambos «candidatos a la muerte» y decidir quién merece la vida. Seguirán siendo decisiones basadas en determinados parámetros que un ser humano priorizó, u otro algoritmo jerarquizó.

El programador, ya sea una persona, o un tercer algoritmo, siempre ordenará por jerarquías, riesgo, coste de la decisión y posibles resultados. Lo hace un ser humano en su toma de decisiones y por ahora, es el único método conocido, salvo el azar o la simple intuición. Si nos metemos de lleno en prioridades, puede que el «sistema» priorice por poder o riqueza. No debemos ser tan inocentes como para pensar que el algoritmo -o mejor dicho, los que deciden sobre cómo ha de comportarse el algoritmo- van a ser ecuánimes a la hora de priorizar entre un presidente de un país, el CEO de una empresa multinacional y el adolescente.

Por eso siempre será mejor hablar de menor daño posible. Ello medido en vidas cercenadas y lesiones producidas. Y volvemos a la hipótesis inicial: la Inteligencia Artificial debe nacer y programarse para hacer del hombre un superhombre. No nace para repetir sus errores y los escenarios que estos errores producen. La elección se basará en evidencias, y cuando no las haya, en las leyes consensuadas.

Al final, la verdadera meta ha de ser la de eliminar la necesidad de decidir. El peligro de que elija el programador subjetivizado, es eso, un peligro.