Los expertos han advertido que los sistemas de inteligencia artificial, a menudo comparados con cajas negras, están siendo adoptados sin una comprensión completa de las múltiples formas en que pueden ser engañados o fallar.
Una organización sin fines de lucro, respaldada por el gobierno de EU, inauguró esta semana un laboratorio para probar los sistemas de inteligencia artificial utilizados por las agencias federales, con el objetivo de descubrir y corregir fallos de seguridad y otros riesgos.
El laboratorio evaluará los sistemas en cuanto a diversas cuestiones, desde la fuga de datos hasta su aplicabilidad, es decir, su capacidad para tomar decisiones mediante la tecnología de inteligencia artificial, según Miles Thrompson, un ingeniero de robótica que dirigirá el laboratorio.
La instalación tiene su sede en Mitre en McLean, Virginia, y supervisa la investigación en seguridad nacional, aviación, salud y ciberseguridad, entre otros temas. Tiene capacidad para 50 personas de manera presencial y 4,000 mediante conexiones remotas.
La organización ha decidido establecer un laboratorio completo para manejar el proceso de evaluación de la tecnología.
La nueva instalación, llamada Laboratorio de Descubrimiento y Garantía de IA, buscará identificar los riesgos de los sistemas mediante pruebas de hackeo y búsqueda de sesgos.
‘Necesitamos adoptar un enfoque colaborativo para estudiar y aprovechar al máximo el potencial de la IA, y espero ver los descubrimientos y progresos que el laboratorio pueda lograr en este campo crítico’, dijo el senador Mark Warner, quien describió todo esto como un esfuerzo para extraer el máximo valor de la IA y, al mismo tiempo, mitigar algunos riesgos.