La Organización de las Naciones Unidas (ONU) reunió a un grupo de expertos en sistemas de armas autónomas letales del que forman parte 125 estados, incluidos los productores de esta tecnología.
El objetivo de esta reunión es establecer las reglas de uso y anticiparse a que se desarrollen más los misiles ‘bonitos, nuevos e inteligentes’ de los que Donald Trump alardeó el pasado 12 de abril.
‘Las armas actuales son máquinas semiautónomas cuyos algoritmos definen su actuación. Pero no improvisan, lo matan libremente. Están sometidas a un control humano, bien dirigidas por control remoto o supervisadas’, indica Reyes Jiménez, profesora de Derecho Internacional Público de la Universidad Pablo Olavide y doctorada experta en sistemas de armas automáticas letales (LAWS).
Esta circunstancia es clave porque es la base de la futura regulación, si sale adelante. Las funciones críticas frente a un objetivo (detección, selección y disparo) están en manos de personas y así debe seguir.
Uno de los problemas es que el avance tecnológico permita que entre una fase crítica y otra transcurran nanosegundos y el controlador humano sea capaz de tomar una decisión a tiempo.
Israel cuenta con un sistema que permite una secuencia entre las fases críticas de 20 segundos, un tiempo escaso para que un experto humano ratifique la amenaza, valore la proporcionalidad de la respuesta y establezca posibles precauciones ante daños ajenos al conflicto, como destruir un colegio o un hospital cercano al objetivo.
‘Esos principios básicos sólo los puede dilucidar un humano y en la reunión internacional hay unanimidad en que esas acciones críticas jamás deben delegarse en la inteligencia artificial‘, afirma a la profesora.
El avance tecnológico es imparable y los expertos internacionales no quieren dejar la regulación del uso de estas armas para cuando ya sea tarde.
Países de Sudamérica y África, así como organizaciones como Stop Killer Robots, reclaman un marco jurídico internacional que prohíba de forma preventiva el desarrollo de las armas autónomas.
Francia y Alemania apuestan por una declaración política (no jurídica) de adhesión voluntaria en la que se establezca un código de buenas prácticas basado en la transparencia.
Estados Unidos, que se centra en defender cómo los avances suponen beneficios en sectores no bélicos (asistencia humanitaria, control de desastres o incluso atención sanitaria o social), rehuye de compromisos concretos y de la estigmatización o prohibición de las tecnologías emergentes en el área de los sistemas de armas autónomas.
Por su parte, China tiene una línea similar. ‘El impacto de las tecnologías emergentes merecen una discusión plena, objetiva e imparcial. Hasta que esa discusión se complete, no debería haber ninguna premisa o prejuicio que impida el desarrollo de la inteligencia artificial’, defendió China en el Grupo de la ONU.
‘La reunión de Naciones Unidas demuestra que, al menos hay un ánimo negociador y el compromiso es elaborar un informe que propondrá un acuerdo por consenso’, señala la experta Reyes Jiménez.