Todos los que han educado a niños saben que junto con la alegría y el orgullo de verlos crecer y madurar también llega la decepción de ver sus propias fallas duplicadas en ellos. Por desgracia –pero sin causar sorpresa—este ciclo se extiende también a nuestra progenie tecnológica.
La Inteligencia Artificial (IA) es una frontera nueva y emocionante llena de promesas y posibilidades, lista para catalizar una transformación a escala con la revolución industrial.
Para 2030, la IA podría contribuir con hasta 15.7 billones de dólares a la economía global, incluidos 0.5 billones en América Latina, según proyecciones de PricewaterhouseCoopers.
Sin embargo, la IA conlleva riesgos. Su capacidad para hacer juicios justos e imparciales es un mito. Ya lo hemos visto muchas veces:
- El software de comando de voz batalla para entender los acentos
- Tay, el experimento de IA de Microsoft, pasó de ‘joven Millennial amistosa’ a misógina genocida en menos de 24 horas
- Los tribunales de Estados Unidos usaron la inteligencia artificial para predecir la posibilidad de crímenes a futuro durante las sentencias, pronosticando de manera errónea una tasa de futura criminalidad el doble de alta entre las personas de raza negra que en la gente de raza blanca.
La razón para el sesgo en la IA es engañosamente simple y, por lo tanto, peligrosa. La inteligencia artificial es nuestra propia humanidad, nuestras propias fallas y prejuicios mirándonos de frente.
Con pocas regulaciones y mecanismos de rendición de cuentas, el desarrollo responsable de la IA a la fecha está en manos de sus creadores. En consecuencia, ¿cómo podemos diseñar una IA para que sea justa, incluyente, y además empática?
Cuatro lineamientos para comenzar
1. Espera un tipo de preferencia.
Ser humano es tener una preferencia. No lo podemos evitar, pero podemos atenuarla con un enfoque reflexivo, sincero y deliberado. Una evaluación honesta del lugar donde existen los sesgos y los prejuicios dentro de una empresa –y por lo tanto de su información– es el primer paso.
Los bloques de construcción de la IA siguen las reglas establecidas por los algoritmos que suministran la información. Desarrollada por humanos, la información hereda sus preferencias. Y, debido a que el aprendizaje automático está diseñado para predecir los resultados que quieren los usuarios, el sesgo heredado se arraiga de manera más profunda.
Para compensar lo anterior, debes hacer preguntas difíciles sobre supuestos y correlaciones. Identifica los datos que son directamente relevantes para el problema, eliminando la información secundaria que podría transformarse en un sesgo. Incluso el concepto de justicia depende de la persona con la que estás hablando.
2. Invita a la diversidad.
Un resultado diverso requiere una participación diversa. Esto significa que la IA no puede ser únicamente el dominio de tecnólogos y matemáticos.
Para resolver problemas complejos, las poderosas máquinas de la IA requieren una gama más amplia de científicos, así como también de representantes de género, raza, identidad, orientación sexual, y más. Entre más grande sea el grupo, mayor será la posibilidad de identificar el sesgo y desafiarlo.
Con la creación de un espectro lleno de experiencias y perspectivas, así como con la comprobación de supuestos y el descubrimiento de tendencias inconscientes, la IA estará más estrechamente alineada para ofrecer resultados imparciales.
3. Conoce tus datos.
Para desarrollar IA, los datos se obtienen mediante la recolección (piensa en Facebook recolectando información personal) o la compra de los mismos.
De manera notable, los correos electrónicos de la desacreditada Enron son uno de los conjuntos de datos más influyentes para la capacitación en sistemas de IA en el mundo, tan solo en virtud de que, históricamente, fue una de las más grandes recopilaciones de interacciones humanas disponible. Uno puede imaginar las parcialidades en esas comunicaciones.
Es fundamental entender de dónde provienen los datos y los sesgos que traen en consecuencia. Se debe limpiar la capacitación basada en las personas y los procesos que llevaron a la toma de decisiones antes de la IA. Las conductas anteriores pueden conducir fácilmente a errores y oportunidades perdidas.
Piensa en una universidad que descarta a un grupo étnico porque, al paso de las generaciones, pocos estudiantes de ese grupo solicitaban su ingreso a esa institución. Si no se eliminan, esas tendencias se repiten en el modelo de IA, reforzando así la parcialidad.
Tampoco subestimes el sesgo por omisión. Por ejemplo, a pesar de que miles de personas ingresaron a un concurso de belleza impulsado por IA, solo una de las 44 ganadoras seleccionadas tenía la piel oscura, lo cual reveló que los conjuntos de datos usados para entrenar a la IA estaban compuestos en su mayoría de ejemplos de personas de piel clara.
4. Crece despacio, prueba y verifica.
¿Se acuerdan de Tay? La IA tiene la habilidad de evolucionar para comportarse de formas no intencionales y que tampoco se pueden anticipar.
Para ayudar a combatir esto, hay que ser sensato en el desarrollo y evitar la tentación de crecer rápidamente en beneficio de la eficiencia. Dado que cada incorporación al modelo es una oportunidad para permitir el ingreso de un sesgo, se debe construir el modelo en etapas, y realizar pruebas en cada paso.
Hasta ahora, la IA ha sido quizás demasiado humana, revelando nuestras pequeñeces y fallas. Sin embargo, con un enfoque intencional, las herramientas “artificiales” pueden ser no solo más inteligentes y rápidas, sino también más equitativas e incluyentes.
Por Luiz Mascarenhas, Director de la Categoría de Consumer Products para HP Inc. América Latina