Hazte premium Hazte premium

Expertos piden luchar contra la amenaza de los robots asesinos

Más de cien fundadores de compañías de Inteligencia Artificial piden a la ONU que prohiba el despliegue de las «Máquinas de Matar Autónomas»

Según los expertos, debemos actuar ahora para evitar que «Terminator» se convierta en una realidad Paramount Pictures
José Manuel Nieves

Esta funcionalidad es sólo para registrados

Un grupo de 116 directivos de empresas dedicadas a la Inteligencia Artificial (IA), entre ellos Elon Musk (Fundador de Tesla y Space X), acaban de firmar en Melbourne, donde estos días se celebra la Conferencia Internacional de Inteligencia Artificial 2017 , una carta abierta pidiendo la prohibición de robots asesinos , máquinas de guerra autónomas capaces de tomar sus propias decisiones y atacar objetivos militares sin necesidad de intervención o autorización humana.

Los firmantes, de 26 países diferentes, advierten en la carta de una incipiente «tercera revolución tecnológica en la guerra» y solicitan a la ONU que busque «una forma de protegernos a todos de estos peligros» .

No es la primera vez que se pide algo parecido. En verano de 2015, miles de investigadores en robótica e IA ya firmaron una carta similar , y en diciembre de 2016, 123 naciones tomaron la decisión, en la sede de Naciones Unidas, de comenzar una ronda de discusiones formales sobre la conveniencia de desarrollar y desplegar este tipo de armamento. Por ahora, 19 de esas naciones ya han pedido formalmente su abolición total.

Las AKM (« Autonomous Killing Machine », máquinas de matar autónomas) constituyen toda una nueva categoría de armamento , y dan un nuevo paso que va mucho más allá de los drones que se utilizan actualmente para atacar objetivos terroristas o militares en países como Paquistán, Afganistán y otras regiones de conflicto.

Diferentes de los drones

La principal diferencia es que l os drones actuales son operados por pilotos desde salas de control remotas, muy lejos del lugar del ataque, lo que implica que, con este tipo de armas, el lanzamiento, o no, de las bombas sigue dependiendo de una decisión humana. Los AKM, por el contrario, no necesitan que ninguna persona de luz verde al bombardeo, ya que pueden tomar la decisión por sí mismos.

Desde un cierto punto de vista, los AKM tienen varias ventajas sobre los sistemas actuales de drones. En primer lugar, es mucho más barato enviar un dron a Paquistán que un avión tripulado. Y si se eliminan también los pilotos y las salas de control remotas los costes podrían reducirse aún mucho más.

Existe también una ventaja política. Estados Unidos, por ejemplo, perdió mucho durante las guerras de Vietnam y Afganistán, en gran parte porque los votantes norteamericanos estaban hartos de ver cómo sus conciudadanos volvían a casa en bolsas de plástico, mutilados de por vida o perjudicados mentalmente, lo que dio lugar a amplios movimientos pacifistas y a cambios políticos y estratégicos. Con los AKM, sin víctimas americanas , la decisión de participar en un conflicto lejano se volvería mucho más fácil para los dirigentes.

El «problema» de la conciencia

Y luego está el «problema» de la conciencia. En los últimos años, en efecto, un gran número de pilotos de drones han renunciado a sus puestos. En parte, debido a la gran carga de trabajo, pero también por el hecho de que les resultaba insoportable ver las imágenes de vídeo de las víctimas incineradas y terriblemente mutiladas por sus misiles. Los AKM, por supuesto, no tienen ete problema.

En resumen, las ventajas emocionales, políticas y financieras, podrían animar las intenciones belicistas de muchos líderes en muchos países. El único elemento en contra del despliegue los AKM sería el factor ético, y todos sabemos que en el mundo abundan dirigentes que no tendrían el menor problema para sucumbir a la tentación de usar esta nueva clase de armas.

Las Máquinas de Matar Autónomas, en efecto, son capaces de operar sin supervisión humana , y cuentan con un cierto grado de capacidad de decisión, incluida la posibilidad de seleccionar sus objetivos. Los firmantes de la carta aseguran que durante los últimos años se han producido avances técnicos sorprendentes en los sistemas de aprendizaje de las máquinas («Machine learning»), que amenazan con «permitir conflictos armados en los que se combatirá de una forma nunca vista hasta ahora, y en una escala de tiempo tan rápida que los humanos ni siquiera podrán comprenderla».

A lo largo de nuestra historia reciente se han prohibido las armas químicas, las biológicas , las nucleares y las bombas de racimo. Pero todas ellas se prohibieron después de haber sido utilizadas y comprobadas sobre el terreno sus terribles consecuencias. El único caso de arma prohibida antes de su despliegue fue en 1998, cuando Naciones Unidas prohibió el uso de rayos láser para cegar a los soldados enemigos. Cabe subrayar que aunque la tecnología necesaria está ampliamente disponible, hasta ahora la prohibición se ha cumplido a rajatabla.

¿Podría suceder lo mismo con los AKM, cuyo uso se considera inmoral por parte de la mayoría de las personas?

Según Toby Walsh , profesor de IA en la Universidad de Nueva Gales del Sur y uno de los promotores de la carta de Melbourne, nos encontramos, en cuanto al desarrollo de la Inteligencia Artificial, en una encrucijada. De hecho, y a pesar de que se puede utilizar esa tecnología para hacer frente a problemas como la desigualdad, el cambio climático o la crisis económica, también es posible aplicarla a la industria de la guerra .

Por eso, afirma Walsh, «Tenemos que tomar decisiones hoy, y elegir cuál de estos futuros es el que queremos».

Esta funcionalidad es sólo para suscriptores

Suscribete
Comentarios
0
Comparte esta noticia por correo electrónico

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Reporta un error en esta noticia

*Campos obligatorios

Algunos campos contienen errores

Tu mensaje se ha enviado con éxito

Muchas gracias por tu participación