Inicio Articulos. ¿Qué es la IA responsable? Parte 2

¿Qué es la IA responsable? Parte 2

Una vez que hemos hablado de la IA explicable y la IA ética, conoce en esta entrega los dos principios restantes de la IA responsable

Por Scott Zoldi, Director de Analítica (CAO) de FICO

El uso de la inteligencia artificial ha aumentado drásticamente para informar y definir estrategias y servicios en una multitud de industrias, desde salud hasta comercio minorista, e incluso ha desempeñado un papel significativo en la lucha contra el COVID-19.

Sin embargo, la adopción masiva y los volúmenes crecientes de la IA generada digitalmente están generando nuevos desafíos para las empresas y los gobiernos, además de convertir a la IA responsable en una consideración fundamental para garantizar no solo precisión, sino también imparcialidad.

La IA responsable asegura que los sistemas de IA y los modelos de machine learning sean explicables, éticos, robustos y auditables, gracias a los cuatro principios que la sostienen. La semana pasada, en la primera parte de este artículo, hablamos de la IA explicable y la IA ética. En esta entrega, exponemos los últimos dos principios, concluyendo con una guía sobre los pasos para una IA responsable exitosa.

 

Principio 3: IA robusta

La IA robusta es una metodología de desarrollo bien definida; el uso adecuado de datos históricos, de entrenamiento y de prueba; una definición sólida de rendimiento; una selección cuidadosa de la arquitectura de los modelos, y procesos para las pruebas de estabilidad, simulación y gobernabilidad de los modelos. Es importante que las organizaciones de ciencia de los datos se adhieran a estos factores y los apliquen como una norma de la IA.

 

Principio 4: IA auditable

La IA auditable significa «desarrollarla bien desde el principio» y conforme a las normas corporativas definidas para el desarrollo de modelos de IA, cuyo cumplimiento debe demostrarse. Los modelos deben crearse con base en un estándar de desarrollo de modelos aplicable a toda la empresa, con repositorios de código compartidos, arquitecturas de modelo aprobadas, variables sancionadas y normas establecidas para pruebas de sesgo y estabilidad de modelos.

Esto reduce considerablemente los errores en el desarrollo de modelos que, de otro modo, se expondrían en la producción, reduciendo el valor comercial anticipado y afectando a los clientes negativamente.

Cuando las condiciones cambian, la IA auditable permite a los científicos de datos determinar cómo responderán las operaciones, así como verificar si la IA sigue siendo imparcial y confiable o si deben ajustarse las estrategias que hacen uso del modelo.

La IA auditable se ejecuta y codifica a través de una cadena de bloques de gobernanza del desarrollo de modelos de IA formada durante el proceso de desarrollo del modelo, la cual conserva todos los detalles del modelo y está disponible de inmediato cada vez que cambian los entornos de los datos. La IA auditable no es una serie de «buenas intenciones», sino un registro inalterable del cumplimiento del estándar para el desarrollo de modelos de IA, que permite a las organizaciones desarrollarlos correctamente con base en ese estándar, brindar pruebas inmutables de su cumplimiento y producir activos que cumplan con los requisitos regulativos y de gobernanza.

A medida que el mundo empresarial pasa del uso teórico de la IA a la toma de decisiones a escala de producción, la IA auditable se vuelve esencial, enfatizando la implementación (y uso) de un estándar claramente definido para el desarrollo de modelos de IA que asegura que ningún modelo se lance a producción sin cumplir todos los aspectos y requisitos de dicho estándar.

La IA auditable permite que la IA responsable sea una realidad, ya que establece un riguroso proceso de auditoría que documenta el cumplimiento del estándar de gobernanza de desarrollo de una compañía durante la producción del modelo. Esto evita investigaciones aleatorias y retrospectivas después de concluido el desarrollo del modelo. Además, ofrece beneficios adicionales: si las empresas identifican con precisión y lo antes posible cuándo un modelo empieza a fallar, y lo detienen al momento, pueden ahorrarse innumerables problemas, así como evitar el daño reputacional y las demandas legales que surgen cuando la IA falla fuera del laboratorio de ciencia de datos.

 

Manual de la IA responsable

No cabe duda de que la comunidad empresarial está comprometida a impulsar la transformación por medio de la automatización basada en la IA. Sin embargo, los altos ejecutivos y los consejos de administración deben ser conscientes de los riesgos asociados con esta tecnología y de las mejores prácticas para mitigarlos de manera proactiva. Las decisiones tomadas por algoritmos de IA pueden parecer insensibles e incluso negligentes, ya que el uso de la IA aleja el proceso de toma de decisiones de las personas a las que dichas decisiones afectan.

A continuación, se muestra un manual de la IA responsable que explora:

  • Uso adecuado de datos históricos de entrenamiento y evaluación
  • Métricas bien definidas para rendimiento aceptable
  • Selección minuciosa de la arquitectura del modelo
  • Procesos para la evaluación, interpretación, eliminación de sesgo y gobernanza de los modelos

Este manual de IA ofrece un panorama de los ocho pasos más importantes:

¿Qué es la IA responsable? Parte 1