Inicio Inteligencia Artificial Crearán un instituto de investigación de inteligencia artificial

Crearán un instituto de investigación de inteligencia artificial

La exempleada de Google, Timnit Gebru, una destacada experta en ética de inteligencia artificial, anunció planes para crear un nuevo Instituto de Investigación de IA

Con la inteligencia artificial construimos un mundo que aún no existe

Un año después de que Timnit Gebru fuera despedida de su puesto en Google, la destacada experta en ética de inteligencia artificial anunció planes para un nuevo Instituto de Investigación de IA, diseñado para ser un grupo independiente y comprometido con diversos puntos de vista y la prevención de daños.

Gebru ha reunido fondos de las fundaciones Ford, MacArthur, Kapor Center, Rockefeller y Open Society para el centro, llamado DAIR o Distributed AI Research, y planea contratar a cinco investigadores durante el próximo año.

El primer becario de investigación del grupo, Raesetje Sefala, tiene su sede en Sudáfrica y estudia cómo los algoritmos de visión por computadora y las imágenes de satélite pueden usarse para rastrear el legado del apartheid espacial: la segregación de grupos minoritarios en ciertas áreas, dijo Gebru en una entrevista.

‘Las dos motivaciones principales para invertir en la investigación de IA son cómo hacer que una gran corporación obtenga la mayor cantidad de dinero posible y cómo matamos a más personas de manera más eficiente. Estos son los dos objetivos fundamentales bajo los cuales hemos organizado toda la financiación para la investigación de IA. Entonces, ¿podemos realmente tener una alternativa? Eso es lo que quiero ver’, apuntó.

El esfuerzo de Gebru es un intento de forjar un grupo de investigación fuera de la influencia corporativa o militar que intente prevenir el daño de los sistemas de inteligencia artificial al enfocarse en perspectivas globales y subrepresentados.

A medida que el desarrollo de los sistemas de inteligencia artificial se ha disparado, el campo se ha vuelto dominado por grandes empresas con acceso a grandes cantidades de datos y potencia informática que se utilizan para crear algoritmos.

Gebru y otros investigadores y activistas, argumentan que la tendencia está haciendo que el área sea menos exigible, especialmente para los grupos que corren el riesgo de ser lastimados por la IA, y que estas empresas a menudo ignoran los problemas relacionados con los prejuicios y los resultados negativos, o silencian a quienes hablan.

La IA no es inevitable, sus daños se pueden prevenir y, cuando su producción e implementación incluyen diversas perspectivas y procesos deliberados, ‘puede ser beneficiosa’, se lee en la declaración de visión de DAlR. Gebru se desempeña como directora ejecutiva del grupo.

El año pasado, Google despidió a Gebru (ella dijo que fue despedida y la compañía dijo que aceptó su renuncia) después de una disputa sobre un documento que criticaba los grandes modelos de inteligencia artificial, incluidos los desarrollados por Google, y después de que Gebru se pronunciará sobre el trato de Google a las mujeres y los empleados negros.

Dos meses después, la empresa despidió a la directora de investigación de ética de Gebru y a una de las coautoras de los artículos, Margaret Mitchell, lo que generó dudas sobre si los investigadores eran libres de realizar un trabajo independiente.

Gebru,quien es de Eritrea y huyó de Etiopía en su adolescencia durante la guerra entre los dos países, quiere investigar el impacto de las empresas de redes sociales en la regiones donde siente que no se están haciendo suficientes esfuerzos para prevenir y eliminar el contenido peligroso.

Ha sido franca sobre la difusión de propaganda violenta en la redes sociales durante los combates actuales en su lugar de nacimiento, y dijo que las plataformas de redes sociales han invertido poco en ‘idiomas y lugares que no se consideran importantes’.

Gebru también quiere que su grupo sirva como un recurso para asesorar a otras organizaciones sobre programas de IA y le gustaría establecer una beca para las personas afectadas por esta tecnología.