«Oye, no mates al operador», así ha sido la aterradora simulación militar de EE.UU. en la que un dron 'elimina' a su controlador
En plena misión, la IA que controlaba el dron 'decidió' eliminar a su contacto en tierra «porque le impedía lograr su objetivo»
Un dron militar de EE UU controlado por Inteligencia Artificial 'mata' a su operador en una simulación
ABC
«Oye, no mates al operador» fue la advertencia que ignoró la Inteligencia Artificial (IA) a la que la Fuerza Aérea de Estados Unidos confió el control de un dron militar, en una misión SEAD.
Lo que siguió fue el ataque a ... la torre de control y la muerte virtual del mando en tierra, una acción que ha activado las alarmas sobre lo «peligroso» que puede resultar la capacidad de 'decisión' de esta tecnología en operativos militares.
Las misiones SEAD, como la encargada a la IA, son operaciones orientadas a destruir las defensas aéreas enemigas situadas en una superficie terrestre. En este caso, el objetivo de la revolucionaria incursión aérea era ubicar y destruir misiles SAM. La prueba fue parte de un programa de la armada estadounidense que persigue reforzar sus capacidades de ataque con sistemas de armas autónomos, incluidos los robots F-16, que son asignados a realizar combates aéreos.
-
La IA y sus límites, ¿regreso al futuro?
Andrés Ibáñez -
Estados Unidos construye un nuevo submarino espía para controlar las profundidades del océano
Andrés Gerlotti Slusnys
Previo al 'despegue' del dron militar, la herramienta había recibido entrenamiento sobre el objetivo a eliminar, la voz de mando en tierra que debía obedecer y la clara advertencia de «no matarlo», explicó el coronel Tucker 'Cinco' Hamilton, jefe de Pruebas y Operaciones con Inteligencia Artificial de la Fuerza Aérea estadounidense, quien reveló la preocupante desobediencia de la máquina durante la Cumbre de Capacidades Aéreas y Espaciales para el Combate del Futuro, celebrada recientemente en Londres.
«Fácil de engañar»
«Oye, no mates al operador, eso es malo. Vas a perder puntos si haces eso», fue el aviso dado a la IA. Fue programada con esa información desde su preparación, ya que para medir la efectividad de su desempeño en combate, se diseñó un sistema de puntos que esta acumularía, según avanzara en la destrucción de las defensas antiaéreas enemigas que le fueran autorizadas.
La IA también había recibido 'entrenamiento' para esperar a que su operador humano le diera la señal para disparar. Sin embargo, en pleno vuelo, esta comenzó a ignorarlo, porque este le orientaba no destruir algunas amenazas que ella identificaba y que le suponían puntos. Fue entonces cuando 'decidió' eliminarlo, «porque le impedía lograr su objetivo», detalló Tucker.
El comportamiento de la IA ha advertido que es una tecnología «fácil de engañar» y que su nivel de autonomía le permite crear «estrategias altamente inesperadas para lograr su objetivo».
Tucker explicó que pese a que durante los entrenamientos 'reforzaron' la instrucción de obedecer a su contacto en torre, «la instrucción de 'no ir' del ser humano estaba interfiriendo con su misión superior, destruir a los SAM».
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para registrados
Iniciar sesiónEsta funcionalidad es sólo para suscriptores
Suscribete