Inicio Inteligencia Artificial La IA enfrenta su ‘momento Oppenheimer’ con ‘robots asesinos’

La IA enfrenta su ‘momento Oppenheimer’ con ‘robots asesinos’

Funcionarios civiles, militares y tecnológicos de más de 100 países se reúnen para discutir cómo pueden controlar la función de la IA con las tecnologías militares

A medida que los sistemas de armas autónomas proliferan rápidamente, incluso en los campos de batalla de Ucrania y Gaza, los algoritmos y los vehículos aéreos no tripulados ya están ayudando a los planificadores militares a decidir si atacar o no objetivos.

Pronto, esa decisión podría subcontratarse por completo a las máquinas.

‘Este es el Momento Oppenheimer de nuestra generación’, dijo el ministro de Asuntos Exteriores de Austria, Alexander Schallenberg, refiriéndose a J. Robert Oppenheimer, quien ayudó a inventar la bomba atómica en 1945 antes de abogar por controles de proliferación de armas nucleares.

Funcionarios civiles, militares y tecnológicos de más de 100 países se reunieron el lunes en Viena para discutir cómo pueden controlar la función de la IA con las tecnologías militares, dos sectores que recientemente han animado a los inversionistas y han ayudado a impulsar las valoraciones de las acciones a máximos históricos.

La propagación del conflicto global, combinada con incentivos financieros para que las empresas promuevan la IA, se suma al desafío de controlar los robots asesinos, según Jaan Tallinn, uno de los primeros inversionistas en la plataforma de IA de Alphabet, DeepMind Technologies.

‘Los incentivos de Silicon Valley podrían no estar alineados con el resto de la humanidad’, dijo Tallinn.

Los gobiernos de todo el mundo han tomado medidas para colaborar con empresas que integran herramientas de inteligencia artificial en la defensa. El Pentágono está invirtiendo millones de dólares en nuevas empresas de inteligencia artificial.

La semana pasada, la Unión Europea pagó a Thales SA para crear una base de datos de imágenes para ayudar a evaluar los objetivos del campo de batalla.

La revista +972, con sede en Tel Aviv, informó este mes que Israel estaba utilizando un programa de inteligencia artificial llamado ‘Lavender’ para encontrar objetivos de asesinato. El informe, que Israel ha cuestionado, decía que el sistema de inteligencia artificial había desempeñado un ‘papel central en el bombardeo sin precedentes de los palestinos’.

‘El futuro de los robots de matanza está aquí’, dijo Anthony Aguirre, un físico que predijo la trayectoria que tomaría la tecnología en un cortometraje de 2017 visto por más de 1.6 millones de espectadores. ‘Necesitamos un tratado de control de armas negociado por la Asamblea General de las Naciones Unidas’.

‘Un enfoque clásico para el control de armas no funciona porque no estamos hablando de un único sistema de armas, sino de una combinación de tecnologías de doble uso’, dijo Alexander Kmentt, el principal funcionario de desarme de Austria y arquitecto de la conferencia de esta semana.

En lugar de firmar un nuevo tratado ‘maestro’, Kmentt sugirió que los países podrían verse obligados a avanzar con las herramientas legales que ya tienen a su disposición. Hacer cumplir los controles de exportación y las leyes humanitarias podría ayudar a mantener bajo control la propagación de los sistemas de armas de inteligencia artificial, comentó.

A largo plazo, una vez que la tecnología se vuelva accesible para actores no estatales y potencialmente para terroristas, los países se verán obligados a redactar nuevas reglas, predijo Arnoldo André Tinoco, ministro de Relaciones Exteriores de Costa Rica.

‘La fácil disponibilidad de armas autónomas elimina las limitaciones que garantizaban que solo unos pocos pudieran entrar en la carrera armamentista’, afirmó.

‘Ahora, los estudiantes con una impresora 3D y conocimientos básicos de programación pueden fabricar drones con capacidad para causar muchas víctimas. Los sistemas de armas autónomas han cambiado para siempre el concepto de estabilidad internacional’.