El presidente de Microsoft, Brad Smith, expresó su respaldo a la creación de una entidad independiente a nivel gubernamental en Estados Unidos encargada de supervisar y regular los usos de la inteligencia artificial (IA).
Esta declaración se produjo durante una sesión en el Senado sobre temas de privacidad y legalidad.
Smith planteó la idea de requerir licencias para la implementación de modelos de IA avanzados en situaciones de alto riesgo. En ese contexto, abogó por la necesidad de establecer una agencia independiente que tenga la capacidad de ejercer una vigilancia efectiva en esta categoría.
El evento, organizado por el comité judicial del Senado y centrado en la IA, brindó a los legisladores estadounidenses una visión más clara de los principales desafíos y áreas de conflicto relacionados con la futura regulación de esta tecnología.
En la audiencia, también comparecieron como testigos William Dally, científico jefe de Nvidia, y Woodrow Hartzog, profesor de Derecho de la Universidad de Boston, quienes se sumaron al apoyo a la intervención de las autoridades en cuestiones como la desinformación electoral y la protección de los datos de los usuarios.
Sin embargo, Brad Smith mostró reticencia respecto a elevar la edad permitida para interactuar con su chatbot Bing, una herramienta impulsada por IA que fue precursora en la implementación de modelos de lenguaje avanzados, como ChatGPT, en diversas aplicaciones.
Un senador republicano había propuesto elevar la edad mínima de uso a 18 años, pero Smith argumentó que esta tecnología también puede beneficiar a estudiantes en su aprendizaje de materias como matemáticas e inglés, y no debería restringirse únicamente a adultos.
En general, la sesión reflejó los esfuerzos recientes de las autoridades estadounidenses por regular una industria que avanza rápidamente, con los principales actores del sector mostrando disposición a cooperar, aunque aún no se han logrado avances concretos.
Hace apenas dos meses, las principales empresas tecnológicas del país aceptaron una serie de medidas de seguridad propuestas por la Casa Blanca, que incluyen la realización de pruebas internas y externas en sus sistemas de IA antes de su lanzamiento al público.
Además, el Gobierno de Estados Unidos está trabajando en la posibilidad de que los compromisos voluntarios de las empresas estadounidenses se traduzcan en un marco internacional para regular el uso de la IA. Ya ha mantenido conversaciones al respecto con países como Brasil, Canadá, Corea del Sur, Francia, Alemania, India, Israel, Japón, México y el Reino Unido.