Sea Hunter, el prototipo de barco de guerra autónomo de Estados Unidos
Sea Hunter, el prototipo de barco de guerra autónomo de Estados Unidos - US Navy

Armas autónomas: estos son los grandes peligros de los «robots asesinos» de combate

La ONU y numerosas organizaciones llaman la atención sobre la necesidad de prohibir el armamento autónomo

MadridActualizado:

La tecnología no sólo está cambiando completamente la forma en la que los seres humanos se comunican. Desde hace tiempo, ejércitos de todo el mundo se encuentran volcados en la fabricación de armas que funcionan de forma totalmente autónoma. Sin necesidad de que haya una persona monitorizando su funcionamiento. Sin embargo, ¿qué nos garantiza que estas nuevas armas no van a cometer un error y, en un momento dado, asesinaran a miles de civiles?. Lo cierto es que, según la ingeniera informática irlandesa Laura Dolan, absolutamente nada.

«(Este tipo de armamento) podría provocar accidentes a gran escala al comenzar a actuar de forma inadecuada. Es por ello, que cualquier dispositivo armamentístico debería estar sujeto a control humano. De lo contrario, deberían ser prohibidos, porque resultan demasiado impredecibles y peligrosos», ha apuntado la científica en declaraciones al medio británico « The Guardian».

Dolan habla con conocimiento de causa. La ingeniera pasó varios años trabajando para Google, y desde 2017 lo hizo, según afirma, dentro del Proyecto Maven. Un plan, creado por el Departamento de Defensa de Estados Unidos, con el objetivo de reclutar a empresas expertas en inteligencia artificial para emplear su tecnología de reconocimiento por imagen en zonas de guerra; como Irak, Siria o Afganistán.

Teóricamente, gracias a los avances en Inteligencia Artificial, los dispositivos autónomos del ejército norteamericano serían capaces de reconocer a sus objetivos y atacarlos, por lo que no habría necesidad de que una persona tuviese que estar vigilando su actividad. Algo que, como apunta la ingeniera, supone un grave riesgo, ya que nadie garantiza, por ejemplo, que una máquina no pueda confundir en un momento dado «a un combatiente de 18 años de un joven de 18 años que está cazando».

«Las armas totalmente autónomas podrían decidir quién vive y quién muere sin necesidad de que un ser humano intervenga; algo que supone un gran aprieto moral. Como máquinas, carecen de características humanas, como la compasión, que son necesarias a la hora para tomar decisiones éticas complejas», explican desde el grupo Campaign to Stop Killer Robots, al que pertenece Dolan.

Google da marcha atrás

La participación de la firma de Google en este proyecto levantó ampollas entre sus trabajadores. Tanto, que enviaron una carta al director ejecutivo de la compañía, Sundar Pichai, a modo de queja. Algunos, como Dolan, fueron más allá y tomaron la determinación de abandonar la compañía: «Aunque no participé directamente en acelerar el reconocimiento de video, me di cuenta de que era parte de la cadena de asesinatos; que esto conduciría en última instancia a que más personas fuesen atacadas y asesinadas por el ejército de Estados Unidos en lugares como Afganistán».

«Aunque no participé directamente en acelerar el reconocimiento de video, me di cuenta de que era parte de la cadena de asesinatos; que esto conduciría en última instancia a que más personas fuesen atacadas y asesinadas por el ejército de Estados Unidos en lugares como Afganistán»

Debido a la fuerte oposición de sus empleados, Google terminó optando por dar marcha atrás y dejar que el contrato de colaboración que la ataba al proyecto del ejército estadounidense se extinguiese. «Siempre hemos dicho que esto fue un contrato de 18 meses, por lo que terminará en marzo de 2019. Después de esto, no seguiremos en el Proyecto Maven», recalcó en junio de 2018 Diane Greene, consejera delegada de Google Cloud.

El ejército de Estados Unidos, por su parte, es consciente de la impopularidad del Proyecto Maven. Debido a ello, informó hace pocos días de que está buscando un experto en ética que ayude a utilizar el armamento autónomo de forma correcta. «Estamos pensando profundamente acerca del uso ético, seguro y legal de la inteligencia artificial», afirmó en rueda de prensa Jack Shanahan, director del Centro de Inteligencia Artificial del Departamento de Defensa de EE. UU.

Shanahan, a su vez, llamó la atención acerca de que otros países como China o Rusia no estén mostrando ninguna preocupación sobre los peligros existentes detrás de este tipo de armamento. Sin embargo, se mostró terminantemente en contra de la prohibición: «sería contraproducente prohibir por completo cosas en las que las personas ni siquieran entienden por completo a lo que se refieren cuando dicen "prohíbe esto"». Por el contrario, espera que su adopción se acelere lo máximo posible.

Falta de control

Como ocurre con tantas otras cosas, hasta el momento no existe una legislación que regule, o prohiba, el empleo de armamento militar autónomo. La ONU lleva años tratando de dar solución a este problema. Sin embargo, por el momento los avances son escasos. «(Estas armas) son políticamente inadmisibles, moralmente reprobables y deberían estar prohibidas por el derecho internacional», señaló en un escrito el secretario general de Naciones Unidas, António Guterres, durante la reunión del pasado mes de marzo, en Ginebra, de un grupo de expertos gubernamentales de la organización en el ámbito de los sistemas de armas autónomas.

La ONU ha levantado la voz ya en varias ocasiones acerca de los peligros que esconde este tipo de armamento. Sin embargo, como hemos expresa, países como Estados Unidos, Rusia, Israel, China o Reino Unido, que están trabajando en el desarrollo de este tipo de tecnología, se muestran tremendamente reacias respecto a un posible acuerdo internacional de prohibición. Algo de lo que numerosas asociaciones llevan años quejándose.

«Aún no es tarde para cambiar de rumbo. La prohibición de los sistemas de armas totalmente autónomos podría impedir algunos escenarios realmente distópicos, como una nueva carrera de armas de alta tecnología entre superpotencias mundiales que provocaría que las armas autónomas proliferaran de forma generalizada», señala Rasha Abdul Rahim, investigadora sobre inteligencia artificial y derechos humanos de Amnistía Internacional.

«Hasta que no haya robots matando gente no sabrán cómo reaccionar, porque lo ven como algo etéreo, algo que simplemente podría no suceder»

Desde otros grupos, como «Campaign to Stop Killer Robots», apuntan que es imprescindible que los estados reconozcan los potenciales peligros que esconde este tipo de armamento, el cual, sostienen firmemente, debe ser prohibido. A su vez, hacen un llamamiento para que empresas, como Google, no colaboren en la elaboración de este tipo de sistemas.

Importantes personalidades del mundo de la tecnología, como Elon Musk, también han alzado su voz contra el empleo de este tipo de tecnología. El consejero delegado de Tesla no se ha cortado a la hora de manifestar en varias ocasiones la necesidad de que las armas autónomas sean prohibidas. «Hasta que no haya robots matando gente no sabrán cómo reaccionar, porque lo ven como algo etéreo, algo que simplemente podría no suceder», expresó Musk hace dos años en una conferencia junto a políticos estadounidense.