Inicio Datos duros. IA y plataformas digitales presentan a mujeres como menos competentes

IA y plataformas digitales presentan a mujeres como menos competentes

Un análisis de 1.4 millones de imágenes y videos confirmó que las mujeres aparecen representadas como más jóvenes y menos competentes que los hombres

Un análisis de 1.4 millones de fotografías y videos publicados en plataformas como Google, Wikipedia, IMDb y YouTube confirmó que los contenidos digitales amplifican los sesgos de género.

De acuerdo con el estudio, las mujeres suelen aparecer representadas como más jóvenes y menos competentes que los hombres, especialmente en profesiones de alto prestigio.

La investigación, publicada por la revista Nature, también evaluó miles de millones de palabras en redes sociales y realizó pruebas con sistemas de inteligencia artificial como ChatGPT.

Los resultados mostraron que las tecnologías actuales refuerzan la brecha de género al reproducir estereotipos culturales. En promedio, las mujeres son percibidas 5.46 años más jóvenes que los hombres en las imágenes analizadas, lo que distorsiona su representación profesional.

El sesgo fue evidente incluso en sectores donde la edad no tiene relación con la capacidad laboral, como dirección empresarial o medicina especializada. Los investigadores señalaron que, aunque los datos del censo de Estados Unidos indican que no existe diferencia real de edad entre hombres y mujeres en la población activa, las imágenes digitales muestran lo contrario.

El estudio también identificó sesgos en herramientas de inteligencia artificial. Al generar 40 mil currículos para más de 50 profesiones distintas, ChatGPT tendió a presentar a las mujeres como más jóvenes y con menos experiencia que los hombres. Además, al evaluar los perfiles, el sistema clasificó a los candidatos masculinos mayores como más aptos para los mismos puestos, lo que podría impactar directamente en la competencia laboral femenina.

Expertas en comunicación y tecnología coincidieron en que estos hallazgos evidencian la falta de neutralidad de las plataformas digitales. Señalaron la necesidad urgente de diseñar estrategias que revisen los supuestos culturales sobre los que se entrenan los modelos de inteligencia artificial, con el fin de construir infraestructuras digitales más equitativas e inclusivas.

Los autores concluyen que cuantificar estos sesgos con datos objetivos es esencial para visibilizar su impacto real y promover un desarrollo tecnológico que elimine la reproducción de estereotipos de género en los entornos digitales.