En la nueva carrera por la inteligencia artificial generativa, algunas empresas están planificando cómo conciliar los intereses comerciales con el compromiso social.
Firmas como OpenAI, Google, Meta y Microsoft están estableciendo el estándar sobre cómo la tecnología será utilizada por millones de personas.
Asegurarse de que los modelos de IA se construyan de manera responsable es igualmente importante para mantenerse a la vanguardia en la presión competitiva, dijo Joelle Pineau, vicepresidenta de investigación de IA en Meta y profesora de la Universidad McGill en Montreal.
‘Es fundamental que estas dimensiones se muevan juntas, de la mano, y que no nos escapemos con algunos modelos sin tener la capacidad de medir algunas de las propiedades importantes a medida que impactan en la sociedad’.
Una forma en que Meta recopila comentarios sobre los sesgos incrustados en los algoritmos es haciendo que las versiones de su modelo de IA estén abiertas a investigadores que puedan señalar las deficiencias.
Aún así, las herramientas actuales de IA generativa tienen un largo camino por recorrer. ‘No son muy buenos para darnos una noción de incertidumbre y construir eso en el modelo. ¿Cuánto saben? No estamos hablando de eso’, comentó Pineau.
Dentro de la comunidad de IA, un grupo de ejecutivos de tecnología y académicos ha dado la voz de alarma sobre lo que ven como el creciente potencial de daños de la IA.
Una de las advertencias más notables provino de Geoffrey Hinton, miembro de los llamados padrinos de la inteligencia artificial, quien dejó el equipo de investigación de IA de Google a principios de este mes.
‘No debemos movernos rápido y romper cosas’, apuntó Demis Hassabis, director ejecutivo de DeepMind Technologies, el desarrollador de inteligencia artificial propiedad de Alphabet, y agregó que no dudaría en expresar sus preocupaciones.
‘Deberíamos tratar de pensar con anticipación en las consecuencias, el impacto posterior de varias tecnologías, porque son muy poderosas, antes de lanzarlas’.