Israel ha incorporado silenciosamente sistemas de inteligencia artificial (IA) en operaciones militares, incluyendo la selección de objetivos para ataques aéreos y la organización logística durante tiempos de guerra, en medio del aumento de tensiones en los territorios ocupados y con Irán, su archirrival.
Las fuerzas de defensa de Israel utilizan un sistema de recomendación de IA que puede analizar grandes cantidades de datos para seleccionar objetivos para ataques aéreos con una velocidad sin precedentes.
Además, utilizan otro modelo de IA llamado Fire Factory para ensamblar rápidamente redadas, calculando cargas de municiones, priorizando y asignando objetivos a aviones y dragones, y proponiendo un cronograma.
Aunque los operadores humanos supervisan ambos sistemas y examinan y aprueban los objetivos individuales y los planes de ataques aéreos, la tecnología no está sujeta a ninguna regulación internacional o estatal en la actualidad.
Los defensores argumentan que los algoritmos avanzados pueden ayudar a minimizar las bajas y superar las capacidades humanas, mientras que los críticos advierten sobre las posibles consecuencias mortales de depender de sistemas cada vez más autónomos.
Tal Mimran, profesor de derecho internacional de la Universidad Hebrea de Jerusalén y exasesor legal del ejército, plantea preocupaciones sobre la responsabilidad en caso de errores en los cálculos de la IA y la falta de explicabilidad de los sistemas. Señala que errores en la selección de objetivos podrían tener consecuencias devastadoras.
Israel ha expresado su interés en convertirse en una ‘superpotencia de inteligencia artificial’, pero los detalles específicos sobre sus inversiones y contratos de defensa relacionados con la IA no se han revelado públicamente. A diferencia de la carrera armamentista nuclear, la información sobre las capacidades de los sistemas de IA en desarrollo se mantiene en secreto.
Actualmente, no existe un marco internacional que establezca la responsabilidad por bajas civiles, accidentes o escaladas no intencionadas cuando se produce un error de juicio por parte de una computadora. Estas preocupaciones llevan a algunos expertos, como Mimran, a abogar por el uso exclusivo de la IA con fines defensivos y a realizar una supervisión manual para asegurar el cumplimiento del derecho internacional en los ataques.