Diario de León

ROBOTS ASESINOS: LA GUERRA CONTRA LOS ALGORITMOS

Esta controvertida tecnología ha sido catalogada por algunos autores como la ‘tercera revolución’ bélica, tras la pólvora y las armas nucleares

Publicado por
León

Creado:

Actualizado:

Vivimos en un momento de conflictos bélicos internacionales preocupante y la violencia es una tendencia al alza. Al mismo tiempo, el desarrollo tecnológico atraviesa una época dorada, liderada por la aplicación de la inteligencia artificial a todo tipo de aparatos. El reconocimiento facial, por ejemplo, lleva unos años permitiéndonos desbloquear el teléfono, pero lo próximo parece ser aplicarlo a las armas. Hablamos de los LAWS, o sistemas letales autónomos, por su sigla en inglés, un tipo de armas diseñadas para tomar decisiones a partir del análisis, en tiempo real, de los datos que recopilan sus sensores y los que obtienen de la ‘nube’. Es una tecnología inspirada en el funcionamiento del cerebro humano, que permite que a los robots aprender y mejorar permanentemente sin necesidad de supervisión humana. Traducido al marco de la guerra, son sistemas que pueden determinar quién vive y quien muere sin que haya un soldado que los controle, simplemente cruzando información.

Esta independencia para matar ha otorgado a los LAWS su apodo como ‘killer robots’ o ‘robots asesinos’, y es lo que ha hecho que algunos autores califiquen esta tecnología como la ‘tercera revolución de la guerra’, tras la pólvora y el armamento nuclear. «Actualmente, Estados Unidos, Israel, Rusia y China son, junto con algunos países europeos, los grandes diseñadores y exportadores de drones militares a nivel mundial, pero se dispone de mucha menos información en el caso de los drones letales autónomos, al ser información clasificada por afectar a la seguridad nacional», explica Roser Martínez Quirante, profesora titular de la Universidad Autónoma de Barcelona, miembro del Comité Internacional por el Control de los Robots Armados (ICRAC).

Stop killer robots’

Preguntado por este periódico respecto a los esfuerzos que está invirtiendo nuestro país en el desarrollo de LAWS, desde el Ministerio de Defensa responden que «pese a que el actual estado de la tecnología permitiría su desarrollo, en este ministerio no se trabaja en ningún tipo de ‘killer robots’». Sin embargo, España es uno de los países en contra de prohibirlos, junto a otros como Estados Unidos, Rusia, China, Australia, Turquía, Israel, Reino Unido, Italia, Francia o Alemania. Martínez Quirante explica esta postura: «Es difícil lograr la connivencia de los Estados para que quieran firmar el convenio de prohibir los sistemas letales autónomos, porque implica un coste económico y de posicionamiento geopolítico. Por un lado, dentro de una escalada armamentística global, el Estado que permanezca al margen de la investigación, desarrollo e implementación de estos sistemas, se va a quedar indefenso ante la superioridad en inteligencia artificial que tengan otros. Por otra parte, implicaría una bajada del PIB (producto interior bruto), porque el sector de la informática y la inteligencia artificial es un mercado importante en algunos países, como España». Los principales defensores de los LAWS argumentan que estas armas permitirán reducir el número de tropas combatientes desplegadas en el terreno, disminuyendo los costes de intervención y las bajas. Además, afirman que la inteligencia artificial es más fiable, eficaz y eficiente que la humana, al no tomar decisiones influidas por las emociones, lo que reducirá el margen de error, el número de víctimas y los crímenes de guerra.

Por su parte, los detractores de esta tecnología alegan que un dispositivo desprovisto de emociones puede matar más fácilmente. Plantean así preocupaciones éticas y legales. «Estos dispositivos son incapaces de reconocer el valor de la vida humana. Para ellos, una persona es un conjunto de bits de información. Si un dron mata a un civil por error, ¿a quién se le pedirán responsabilidades?», cuestiona la profesora. También destacan el sesgo cultural de los datos. A modo de ejemplo, la Unión Estadounidense por las Libertades Civiles confirmó en una investigación que los sistemas de reconocimiento facial tienen una alta tendencia a identificar sujetos no caucásicos como criminales. Para presionar sobre la regularización de estas armas se ha creado una coalición internacional agrupada en la campaña ‘Stop killer robots’. Sus protestas han impulsado las conversaciones en la Convención para Ciertas Armas Convencionales (CCW) de las Naciones Unidas, con el fin de prohibir los LAWS y pedir que haya un control humano significativo sobre el uso de fuerza letal, pero la oposición de las superpotencias militares ha impedido llegar a un acuerdo hasta la fecha.

«Hemos visto que Rusia necesita sacar todo el armamento antiguo que tenía y que, paralelamente, está haciendo pruebas con algunos sistemas con inteligencia artificial, pero no tenemos ninguna certeza de que se hayan empleado de forma autónoma. De todas formas, aunque se utilizasen, no se podría hacer nada al respecto, porque los ‘killer robots’ no están prohibidos», sentencia Martínez Quirante. En concreto, «lo que más preocupa son los enjambres de drones, es decir, mini drones que se comunican entre sí y actúan de forma coordinada, como si fuera un enjambre de abejas, pues es algo contra lo que es prácticamente imposible defenderse».

tracking