Craig Martell, el nuevo jefe de inteligencia artificial del Pentágono busca acelerar la modernización tecnológica, después de una avalancha de lo que él llama críticas válidas de parte de altos líderes recientemente fallecidos que expresaron su frustración por el lento progreso.
Martell, quien anteriormente fue jefe de aprendizaje automático en Lyft y Dropbox, y dirigió iniciativas de inteligencia artificial en LinkedIn, dijo en su primera entrevista desde que comenzó su trabajo como director de inteligencia artificial y digital del Pentágono, que quería hacer progresos a pesar de la laberíntica ‘inercia burocrática’ del departamento.
La llegada del ejecutivo supone un impulso para el Pentágono, que busca atraer talento experto del sector privado. Martell, dijo que su primer día en el Pentágono de lunes fue abrumador y agregó que había aceptado un recorte salarial ‘no trivial’ para hacer el trabajo.
‘No es mi objetivo venir aquí y cambiar toda la cultura del Departamento de Defensa. Mi objetivo es demostrar que con los cambios culturales correctos, podemos tener un impacto realmente grande’; dijo que las condiciones de los niveles principales que se habían ido eran ‘en su mayoría correctas’.
Varios altos funcionarios de defensa que trabajan en la modernización tecnológica abandonaron recientemente el Departamento de Defensa y expresaron su frustración por la lentitud del cambio, y algunos mencionaron preocupaciones de que China, que según los investigadores, está invirtiendo fuertemente en inteligencia artificial para el ejército, podría superar las capacidades de defensa de Estados Unidos.
El Pentágono se ha topado previamente con preocupaciones éticas sobre su posible uso de la IA. Por ejemplo, algunos empleados se negaron a trabajar en posibles aplicaciones militares de inteligencia artificial, en medio de preocupaciones sobre el posible uso futuro de armas letales autónomas y objetivos.
Las responsabilidades de Martell incluyen el trabajo en ‘guerra algorítmica’, un concepto poco definido que busca aplicar la inteligencia artificial al combate.
En un documento para el Centro de Estudios Estratégicos e Internacionales publicado el lunes, Gregory Allen, exjefe de estrategia y política de India en el Pentágono hasta que renunció en abril, dijo que el departamento necesitaba actualizar sus políticas de casi 10 años sobre el uso de sistemas de armas autónomas y abordar el papel de los sistemas habilitados para IA y el aprendizaje automático.
A pesar de la retórica habitual de los altos funcionarios de defensa de que siempre habrá un humano en el circuito, en cualquier decisión de disparar un arma, no existe una prohibición específica de las armas autónomas y un registro escrito de que los humanos deben autorizar el uso de armas, dijo.
Martell dijo que no creía que alguna vez llegaremos a Skynet, una referencia al futuro en que la IA avanzada podría amenazar a los humanos, como se muestra en la serie de películas Terminator.