Armamento autónomo: cuando el ordenador decide quién vive y quién muere
La Inteligencia Artificial ha permitido desarrollar armas capaces de seleccionar y atacar objetivos sin supervisión. Su empleo en Libia, por primera vez en la historia, ha reabierto el debate ético y legal sobre el desarrollo de esta industria militar en la que las grandes potencias llevan años invirtiendo
Día 27 de marzo de 2020. Después de diez años de guerra civil, el primer ministro de Libia reconocido por Naciones Unidas, Fayez al Sarraj, decide dar inicio a la Operación Tormenta de Paz, con la que se esperaba acabar con la presencia de las tropas afiliadas al general opositor Jalifa Haftar en el litoral del país norteafricano. La combinación de fragatas de tipo Gabya y de sistemas aéreos de corto alcance permitió crear una burbuja de defensa sobre los soldados del Gobierno de Consenso Nacional y acabó con el soporte aéreo del enemigo, que no tardó en batirse en retirada. Fue entonces cuando se asistió a un acontecimiento, hasta entonces, inaudito en la historia militar: el primer ataque de dispositivos completamente autónomos contra objetivos humanos.
«Los convoyes logísticos y las fuerzas afiliadas a Haftar en retirada fueron posteriormente perseguidos y atacados a distancia por vehículos aéreos de combate no tripulados o sistemas de armas autónomos letales como el STM Kargu-2 y otras municiones de merodeo. Los sistemas de armas autónomos letales se programaron para atacar objetivos sin requerir la conectividad de datos entre el operador y la munición», se explica en un reciente informe elaborado por un grupo de expertos de Naciones Unidas sobre la guerra en Libia.
A pesar de que no se ofrece información sobre si el STM Kargu-2, dron de fabricación turca con capacidad para disparar proyectiles a objetivos en movimiento, causó alguna baja entre las tropas de Haftar, el panel de expertos de la ONU deja claro que se empleó sin ningún control humano. Que era la máquina, en última instancia, quien tenía la capacidad de decidir quién vivía y quién moría. El armamento autónomo, capaz de seleccionar y atacar objetivos sin supervisión gracias al empleo de Inteligencia Artificial (IA), lleva años siendo adoptada por las grandes potencias, y ahora su empleo en el conflicto libio ha reabierto el debate ético y legal sobre su desarrollo. Una floreciente industria militar en la que países como China, el Reino Unido, Rusia y, sobre todo, Estados Unidos llevan años invirtiendo.
«Las grandes potencias están obsesionadas con la guerra del futuro, y la tecnología ya empieza a permitir el desarrollo de dispositivos que eran impensables. Antes no había sistemas de reconocimiento facial y ahora los encontramos hasta en los móviles. Si yo tengo una IA capaz de localizar una cara, la puedo emplear para que encuentre un carro de combate o una lanzadera de misiles», explica a ABC el analista de defensa Jesús Manuel Pérez Triana. El experto destaca que los desarrollos que se están llevando a cabo actualmente van «desde cosas que caben en la palma de la mano hasta aeronaves que tienen más envergadura que un Boeing 737». Y, además, los dispositivos no se limitan exclusivamente al aire; ya se han creado prototipos destinados a operar en tierra y en mar. Ese es el caso, por ejemplo, del barco autónomo Sea Hunter, desarrollado por Estados Unidos en 2016, o del tanque ruso T-14 Armata, que cuenta con torreta no tripulada, preparada para responder al fuego enemigo sin necesidad de que la tripulación le dé ninguna orden.
«Se llevan desarrollando desde hace mucho tiempo. Ya hay tecnología suficiente para poder rastrear e identificar objetivos de forma completamente autónoma», apunta a este periódico, por su parte, Salvador Cobos, profesor del Grado en Ingeniería en Organización Industrial de la Universidad Internacional de La Rioja (UNIR), experto en robótica.
Organizaciones sin ánimo de lucro, expertos en IA, una treintena de países y la propia ONU llevan tiempo solicitando la prohibición en el uso y desarrollo de este tipo de armamento. Se basan en que cualquier dispositivo tecnológico, por muy avanzado que sea, puede cometer un error que, en un momento dado, derive en catástrofe. «Todos estos dispositivos se fundamentan en ‘machine learning’ y han sido entrenados con fuentes de datos que representan el pasado. Ya por este motivo, estos algoritmos pueden fallar en sus predicciones si los escenarios actuales difieren. Por lo que podrían cometer errores, sobre todo, en un entorno dinámico», destaca en conversación con este periódico Josep Curto, experto en Inteligencia Artificial y profesor de la Universidad Oberta de Cataluña.
En la misma línea se mueve Juan Ignacio Rouyet, experto en IA y ética y profesor de la Universidad Internacional de La Rioja: «No solo es posible que la IA falle, también es posible hacerla fallar. Dentro de las armas autónomas una herramienta que se utiliza mucho es el reconocimiento facial. Hay drones a los que se les carga con la imagen de objetivos para que reconozcan caras y a estos sistemas, como a todo, se les puede engañar. Se ha visto en otras ocasiones en el pasado».
Tampoco está muy claro quien cargaría con la responsabilidad en caso de que un dispositivo de esta clase cometiese un error que costase vidas humanas. Si la culpa sería del desarrollador, del fabricante o del ejercito que lo ha empleado. «El comercio de drones militares y el uso de armas asociadas a los mismos debería basarse en principios de responsabilidad, coherencia y transparencia. Así, la aplicación de un tratado sobre comercio de armas debería garantizar el uso responsable de los drones. Dirimiendo responsabilidades, hay que conocer la figura del controlador, el piloto, el operador del RPA y la compañía de seguros. También hay que estudiar si el estado en sí tiene que garantizar el uso responsable de los drones respecto a terceros, por ejemplo. Así, el uso y regulación de RPAs, cuyo peso sería inferior a 150 kg debe indicar si existe responsabilidad nacional o no. Todo ello, forma un conglomerado de distintos conceptos jurídicos que deben ser estudiados en caso de que quiera trasladarse su aplicación del uso civil o comercial al uso militar», explica Jordi Sandalinas, profesor de la Universidad Oberta de Cataluña en el seminario de drones y derecho.
A pesar de los intentos de la ONU y de una treintena de países, entre los que figuran Brasil, Argentina o Austria, por prohibir este armamento, hasta la fecha hay pocos avances. A finales de 2013, Naciones Unidas puso el tema en su agenda, pero desde entonces se han realizado pocos avances. En la última reunión del Convenio sobre Ciertas Armas Convencionales (CCW), celebrado en 2019 bajo el paraguas de la ONU, Rusia y Estados Unidos se opusieron a las propuestas para negociar un nuevo tratado sobre armamento autónomo, calificando esa medida de «prematura».
España, mientras tanto, está de perfil. En conversación con este periódico, el Ministerio de Defensa se limita a señalar que aquí no se trabaja en el desarrollo de ningún sistema de armas autónomo. «Hay una especie de tabú con este tema. Al final los países que los emplean piensan en la ventaja que les proporciona, entre ellas la de no comprometer la vida de sus soldados», destaca Pérez Triana.