La comprensión humana a veces puede ser engañosa, lo que se conoce como alucinación. Esto también puede ocurrir en la inteligencia artificial, y muchas empresas han aplicado este concepto a los nuevos chatbots extremadamente poderosos, pero aún defectuosos.
La página del producto para el último modelo de IA de Open AI, GPT-4, menciona la alucinación como una limitación del sistema. Según informes, Google también ha mencionado la propensión de la IA a alucinar en una entrevista reciente.
Sin embargo, algunos expertos en ética de la IA sostienen que el término ‘alucinación’ no es adecuado para describir lo que realmente está sucediendo en estos sistemas.
Esta palabra sugiere una mente propia que se ‘descarrila’, lo que absuelve a los creadores de la responsabilidad de sus productos. En cambio, es importante usar un lenguaje preciso y apropiado para describir el funcionamiento de la IA y sus limitaciones.
A medida que más personas utilizan chatbots como ChatGPT y Bing de Microsoft, es esencial discutir el lenguaje utilizado para referirse a ellos.
Estas discusiones ya no son exclusivas de académicos o informáticos en laboratorios de investigación, sino que se han filtrado en la vida cotidiana, informando nuestras expectativas sobre cómo funcionan estos sistemas y lo que son capaces de hacer.
Incluso OpenAI, la compañía que inició la tendencia de los chatbots, está de acuerdo en que la alucinación no es una gran metáfora para describir la IA.
Aunque la palabra aparece varias veces en los documentos técnicos, reconocen que puede sugerir antropomorfización y provocar modelos mentales incorrectos de cómo aprende el modelo.