Un equipo internacional desarrolló un manual destinado a promover la transparencia en el uso de la inteligencia artificial (IA) en áreas críticas como la salud, las finanzas y el ámbito legal.
Coordinado por la Universidad de Granada (UGR), este recurso se enfoca en la verificación y certificación de los resultados de modelos complejos, buscando que los sistemas de IA no solo sean efectivos, sino también comprensibles y justos.
Con el auge de las redes neuronales profundas y otros sistemas automatizados de apoyo a la toma de decisiones, ha aumentado la preocupación por la opacidad de estos modelos.
Si bien su capacidad predictiva es notable, su naturaleza complicada dificulta la interpretación de su funcionamiento y genera inquietudes éticas sobre su legitimidad.
Para abordar estas cuestiones, el manual proporciona un compendio de técnicas de inteligencia artificial explicable (XAI) que pueden ser aplicadas en contextos cotidianos.
La guía, dirigida por la profesora Natalia Díaz Rodríguez, del Departamento de Ciencias de la Computación e Inteligencia Artificial de la UGR, incluye ejemplos prácticos y cuadernos de trabajo que ayudan a los profesionales de la informática a entender y comunicar los resultados de modelos de machine learning. Además, ofrece un manual de apoyo para que los usuarios conozcan los requisitos y beneficios de cada técnica.
Díaz subraya la importancia de entender tanto las capacidades como las limitaciones de los modelos avanzados de IA y de las técnicas de explicabilidad.
‘Las explicaciones proporcionadas a veces no son satisfactorias o fácilmente validables’, advierte la profesora, destacando la necesidad de un enfoque crítico al evaluar estos sistemas.
Este trabajo, realizado durante su estancia en el Instituto Politécnico de París, es resultado de una colaboración internacional con expertos de países como el Reino Unido, Francia y Austria.