la tercera
El derecho a ser juzgados por humanos
«Las capacidades de la inteligencia artificial aumentan con cada hora que pasa, y la línea que trazamos entre aquello que pueden hacer las máquinas y lo que los seres humanos deben controlar seguirá cambiando. Pero los algoritmos no deben convertirse en la nueva élite con capacidad de decisión»
Con el lanzamiento de Chat GPT, una aplicación de inteligencia artificial (IA) que millones de personas utilizan desde su lanzamiento el pasado noviembre, todos tratamos de averiguar qué tareas podemos encomendar a la IA y cuáles deben seguir en manos de los humanos. En un congreso celebrado en Oxford hace un par de semanas, con el patrocinio del equipo de Ética en la IA del departamento de Filosofía, quedó clara una cuestión esencial. A medida que la IA se introduce en campos que antiguamente se destinaban exclusivamente al juicio humano, como los diagnósticos médicos, las sentencias judiciales o incluso la cata de vinos, ¿deberíamos tener los seres humanos el recurso de apelación contra los juicios emitidos por una máquina?
Ya hay máquinas que nos juzgan, como los radares de tráfico en nuestras autopistas. Supongamos que un radar nos detecta excediendo el límite de velocidad porque estamos llevando al hospital, a toda prisa, a una mujer que se ha puesto de parto. Sería realmente tiránico que no hubiese un ser humano en alguna parte del sistema que pudiera escuchar nuestra justificación y anular la multa. La validación humana es lo que hace que aceptemos que nos controlen las máquinas en la autopista, junto con el hecho de que aumentan nuestra seguridad.
En el campo del diagnóstico médico, ya se emplean algoritmos para interpretar imágenes médicas, por ejemplo, las tomografías de pulmones y pechos. Según se dijo en el congreso de Oxford, hay algunas pruebas de que los algoritmos, que se construyen a partir de la recopilación sistemática de macrodatos (big data) sobre la incidencia del cáncer de pulmón, son capaces de detectar áreas problemáticas en una imagen escaneada que se le pueden escapar al médico. Sin embargo, en el estado actual de desarrollo, los algoritmos obtienen una tasa mayor de falsos positivos que el cribado humano y, al estar codificados para identificar solo patologías específicas, se les escapan otros hallazgos relacionados pero distintos que un clínico especializado sí puede detectar.
Por tanto, si usted es el paciente, querrá un examen algorítmico de las tomografías, pero también querrá que los médicos las examinen. Eso es, desde luego, lo que los neumólogos afirmaron durante el congreso. No temían que la IA les fuese a dejar en breve sin trabajo. Una decisión humana incrementa la precisión del diagnóstico, pero también brinda a los pacientes un ser humano con quien pueden hablar, discutir o decidir sobre el tratamiento y, en caso de que algo vaya mal, alguien a quien pedir cuentas. Un responsable humano salvaguarda el derecho del paciente a ser tratado como un ser humano.
Hasta aquí, todo bien. El problema es que, muy pronto, los algoritmos podrían llegar a diagnosticar mejor que la mayoría de los médicos. ¿Qué pasará cuando los médicos empiecen a equivocarse más que el algoritmo? La autoridad que otorgamos al juicio humano se verá socavada. ¿Aceptarán los pacientes que un médico tenga la última palabra, si tanto el paciente como el médico saben que la máquina lo hace mejor? Cuando crucemos esa frontera, que la cruzaremos, ¿por qué íbamos a querer dar la última palabra a un responsable humano?
Plantéese la posibilidad de dejar en manos de algoritmos las sentencias en los tribunales penales y civiles. La parcialidad e incompetencia del poder judicial son una parte respetada del folklore jurídico en todos los países. Estudios recientes sobre las decisiones de los jueces estadounidenses han documentado sus sesgos raciales, sociales y de género, además del extraño hecho de que no fallan igual antes de comer que después. Si es así, ¿por qué no encomendar las sentencias a máquinas a las que no les entra sueño después del almuerzo y que no albergan sesgos ocultos ni aceptan sobornos? ¿Por qué no introducimos varios centenares de años de jurisprudencia en los algoritmos judiciales y los empleamos para que se pronuncien sobre los casos?
Todo depende de lo que uno crea que es la justicia, y de lo que crea que tienen que hacer los jueces. Si para usted la justicia es la aplicación imparcial, coherente e inflexible de una regla judicial a un caso concreto, en ese caso querrá que las máquinas con sus algoritmos saquen sentencias similares para casos similares. Pero si cree que la justicia consiste en templar la coherencia con la misericordia, en adaptar las reglas a las circunstancias, en ese caso tal vez prefiera mantener a esa figura togada en la sala del tribunal. Sin duda querrá que haya un juez humano si la cuestión que se debate en la sala es la de si una persona dice o no la verdad. Tal como están las cosas, a las máquinas no se les da bien tener en cuenta las circunstancias o averiguar quién está diciendo la verdad.
En situaciones que pueden cambiar la vida, como en la sala de un juzgado o en la consulta de un médico, nadie piensa realmente que la IA pueda suplantar al criterio humano. Cuando lo que está en juego es suficientemente importante, como ocurre en estos casos, tiene que haber un ser humano que asuma la responsabilidad. Podrá emplear algoritmos como orientación, o para corregir sus sesgos y posiblemente mejorar sus decisiones, pero cuando el juicio conlleve un riesgo mortal, parece esencial que los seres humanos tengan derecho a que la decisión la tome un humano.
Sin embargo, lo preocupante de la IA es que lo que el cerebro humano tardó millones de años de evolución en aprender, las máquinas lo han aprendido en una generación. Las capacidades de la IA aumentan con cada hora que pasa, y la línea que trazamos entre aquello que pueden hacer las máquinas y lo que los seres humanos deben controlar seguirá cambiando. Pronto llegará el día en que las máquinas se conviertan en mejores jueces que nosotros, al menos en situaciones en las que el procesamiento de grandes agregados de datos sirve para mejorar las decisiones. Incluso entonces, en esos días venideros, sospecho que la cuestión fundamental no será qué juicio ofrece resultados más coherentes o precisos, sino quién debe tomar la decisión y a quién debe rendir cuentas. Hace mucho tiempo, nuestras democracias rechazaron la idea de que debíamos ser gobernados por personas de la élite, aun cuando estas afirmasen que, en virtud de su educación o gusto, estaban capacitadas para emitir juicios superiores.
Los algoritmos de la AI no deben convertirse en la nueva élite con capacidad de decisión. Preferimos el principio de 'una persona-un voto', aun sabiendo que a menudo las mayorías yerran, y cuando buscamos justicia, recurrimos a un jurado formado por nuestros pares, a pesar de que sabemos que el jurado puede cometer errores. Imagino que, adonde quiera que nos lleve la IA, querremos que sigan juzgándonos nuestros pares, es decir, personas que pueden ser tan falibles como nosotros, precisamente porque, al ser falibles, nos entienden. Lo que más nos importa a la hora de ser juzgados es que nos entiendan. Tenemos motivos fundados para suponer que las máquinas, por mucha agilidad computacional que acumulen, nunca entenderán aquello que nos hace humanos.
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para suscriptores
Suscribete