En la conferencia Dreamforce 18, expertos en inteligencia artificial advirtieron del riesgo que esta presenta: «Se trata de una tecnología que puede hacer mucho bien, pero también tiene potencial para dañar a los individuos», explicó la arquitecta de prácticas éticas de inteligencia artificial de Salesforce, Kathy Baxter, en un debate en este evento.
Aunque la premisa fundamental de la inteligencia artificial es que las máquinas piensan y toman decisiones por sí mismas, son los humanos quienes deben enseñarles a llevar a cabo estos procesos, por lo que cualquier sesgo presente en el mundo real es fácilmente repetido.
Según Baxter, la clave son los datos -de los que se nutren las máquinas en su proceso de aprendizaje-, ya que si estos presentan sesgos o patrones discriminatorios, las decisiones que termine tomando la máquina harán lo mismo o incluso los ampliarán.
«Pongamos por caso un programa de inteligencia artificial que decide mediante un análisis de riesgo si se otorgan préstamos o no a potenciales clientes de un banco», usó como ejemplo la responsable de Salesforce.
«Si históricamente las mujeres o minorías étnicas han experimentado una tasa inferior con respecto a la concesión de préstamos por parte del banco, eso será lo que aprenda la máquina y lo reproducirá», apuntó.
Podría pensarse que si el programador elimina variables como la raza o el género en el algoritmo de toma de decisiones de la máquina el problema se solucionaría, pero Baxter aseguró que ese no es el caso.
«Podemos eliminar variables directas, pero siempre quedarán las indirectas -indicó-. Por ejemplo, en Estados Unidos el nivel de ingresos y la raza están estrechamente relacionados. La inteligencia artificial hallará patrones con respecto a esta variable, y ello perjudicará a las minorías».
De acuerdo con la experta, no se puede esperar que la tecnología elimine «de forma mágica» los prejuicios existentes en las sociedades, por lo que la única solución real pasa por ser extremadamente cuidadosos con los datos de los que se nutre la inteligencia artificial.
En el presente, ya se han encontrado casos de potencial discriminación por parte de la inteligencia artificial, incluso en algo tan aparentemente inocuo como los asistentes de voz.
Así lo subrayó el jefe científico del departamento de investigación de Salesforce, Richard Socher: «Las investigaciones actuales demuestran que, por ejemplo, los sistemas de reconocimiento de voz tienen una tasa de error ligeramente superior para las mujeres», señaló.
Socher coincidió con Baxter en la «importancia crucial» de «enseñar» a las máquinas con datos libres de sesgo, ya que, destacó el experto, la inteligencia artificial tendrá un impacto incluso mayor que internet en la vida de las personas.
Otro campo de potencial discriminación, dijo Socher, es la lengua, dado que es habitual que productos de inteligencia artificial con «notables beneficios para el día a día de las personas», salgan al mercado en un número muy limitado de idiomas.
«Eso también es discriminación porque a la larga impide el desarrollo de los grupos que hablan lenguas minoritarias en las mismas condiciones que los hablantes de lenguas mayoritarias», remarcó.
Coincidiendo con la celebración de su conferencia anual Dreamforce, Salesforce presentó su propio asistente de voz basado en inteligencia artificial, Einstein Voice.
Einstein Voice responde a órdenes habladas al estilo de Siri (Apple) o Alexa (Amazon), pero está diseñado especialmente para el mundo empresarial, por lo que es capaz de transcribir información oral y, por ejemplo, ahorrar tiempo a las compañías en la actualización de bases de datos.
Más de 160,000 personas asisten esta semana a la conferencia Dreamforce 18 que Salesforce celebra en San Francisco.