«Las armas autónomas letales pueden llegar a tomar decisiones al margen del ser humano"
Roser Martínez Quirante, experta en Inteligencia Artificial de la Universidad Autónoma de Barcelona alerta desde León sobre el peligro en un ciclo de conferencias de la ULE

Roser Marínez Quirante, en la conferencia de ayer.
Roser Martínez Quirante, experta en ética de la inteligencia artificial de la Universidad Autónoma de Barcelona, abrió ayer el Curso de Actualidad Científica y Cultural de la Facultad de Ciencias Biológicas y Ambientales de la ULE, con la conferencia Armamento letal autónomo.
—¿Cuál es el principal peligro que encierran las armas letales autónomas?
—Que puedan llegar a convertirse en armas de defensa personal en el mundo occidental. Son la nueva amenaza fantasma, los drones, debido a este tipo de armamento en sociedades con un conflicto bélico. El desarme va a ser muy difícil porque va a ser muy fácil de pasar a la población civil por la facilidad de usarlas, de ocultarlas e incluso de venderlas.
—¿Qué se consideran armas letales autónomas?
—Son un tipo de arma que puede circular por tierra, por mar o por aire, pero que tiene como ejemplo más común los drones. Son vehículos no tripulados que a través de la inteligencia artificial y de los datos que se les suministra desde la nube pueden llegar a identificar y eliminar objetivos sin el control remoto que pensábamos que antes necesitaba este tipo de armas. Los drones son vehículos autónomos, no necesitan pilotaje, no necesitan la reflexión de un humano ni la decisión. Ahora basta con un reconocimiento facial para que elijan a sus víctimas y acaben con ellas sin que haya intervención de por medio. Las máquinas no piensan y no negocian, no entienden el contexto, no tienen autoridad moral. Esto puede aumentar exponencialmente el peligro de riesgos bélicos.
—¿Cuál es el principal riesgo, el de las consecuencias civiles o el de las decisiones al margen de los humanos?
—En un espacio bélico, es un riesgo que los daños colaterales vayan a sufrir los civiles por este tipo de armas, porque cuando se equivocan lo pagan los civiles. Hay un riesgo que tenemos que asumir las sociedades occidentales. Pero paralelamente corremos el riesgo de que los datos que están recopilando las empresas que las monopolizan, como Google, Amazon, y todas estas compañías lleguen a amenazar a nuestras sociedades. Los drones funcionan con datos, con algoritmos. Y al final esa información está en la nube, no somos los dueños de estos datos. Las armas autónomas letales pueden hacerse con esta información para atacar otro tipo de objetivos que no sean los militares.
—¿A qué achaca el cambio de postura de China?
—En Naciones Unidas tenemos la experiencia de que dicen un día una cosa y otro día otro. Rusia, Estados Unidos o Israel siempre tienen una postura clara y no querían firmar los tratados de prohibición de armas letales, pero China utiliza prácticas dilatorias para no decir ni sí ni no. Lo que está claro es que están armándose gracias a la inteligencia artificial y con tecnología porque no tienen un gran ejército, pero sí una gran industria tecnológica y no sólo por computación cuántica sino en la automatización y en la IA.
Hoy el ciclo sigue con la conferencia El reto global del cambio climático desde las humanidades, por José Manuel Marrero Henríquez, profesor de literatura y ecocrítica procedente de la Universidad de Las Palmas de Gran Canaria.