Los sesgos en la inteligencia artificial surgen de múltiples maneras, a veces los datos de entrenamiento no son lo suficientemente variados, lo que hace que el software adivine en función de lo que sabe.
En 2015, el software fotográfico de Google etiquetó, lamentablemente, a dos usuarios negros como gorilas, porque los datos carecían de suficientes ejemplos de personas de color.
En algunos casos los algoritmos están capacitados para aprender de las personas que usan el software.
Los algoritmos continúan permanentemente aprendiendo y mejorando, y con el tiempo y con datos que se supone serán más precisos.
‘Tenemos que enseñar a nuestros algoritmos lo que son buenas asociaciones y aquellas que son malas, de la misma manera que enseñamos a nuestros hijos’, comenta Adam Kalai, un investigador de Microsoft.
Mientras que muchos investigadores trabajan en problemas conocidos, Ece Kamar, de Microsoft y Himabindu Lakkaraju, de la Universidad de Stanford, trabajan en encontrar hoyos negros en los datos.
Estas ‘incógnitas desconocidas’ son las áreas que faltan en un conjunto de datos que el ingeniero o investigador ni siquiera se da cuenta de que no están ahí, lo que provoca sesgos.
Utilizando un conjunto de datos con fotos de perros negros y gatos blancos y cafés, el software etiquetó incorrectamente un perro blanco como gato. No solo estaba equivocada la inteligencia artificial, sino que estaba muy segura de que era correcta, lo cual dificultaba la detección del error.
Los investigadores están buscando espacios donde el software tenga una alta confianza en su decisión, encuentren errores y noten las características que caracterizan el error.
Esta información luego se proporciona al diseñador del sistema con ejemplos que pueden usar para volver a entrenar al algoritmo.
En opinión de los investigadores, probablemente se llevará años resolver el problema del sesgo. Si bien son prometedores en varios enfoques, consideran que el desafío no solo es tecnológico sino también legal, porque algunas de las soluciones requieren tratar las clases desprotegidas de manera diferente, lo cual no es legal en todas partes.
Muchos sistemas de inteligencia artificial son cajas negras; los datos entran y la respuesta sale sin una explicación para la decisión. Eso hace difícil averiguar cómo se introduce el sesgo.
Los investigadores de Google están estudiando cómo agregar algunas restricciones manuales a los sistemas de aprendizaje automático para hacer que sus productos sean más comprensibles sin sacrificar la calidad de la producción.
La buena noticia es que algunas de las personas más inteligentes del mundo han invertido su capacidad intelectual en el problema.
‘El campus realmente se ha revitalizado y están viniendo algunos de los mejores científicos informáticos, a menudo junto con científicos sociales que escriben grandes trabajos’, dice Dan Weld, profesor de informática de la Universidad de Washington.
Con información de Bloomberg