El ingeniero Blake Lemoine, dijo creer que el chat de inteligencia artificial de Google era capaz de expresar emociones humanas, lo que planteaba cuestiones éticas.
Google lo puso en licencia por compartir información confidencial y dijo que sus preocupaciones no tenían base en los hechos, una opinión ampliamente compartida en la comunidad de inteligencia artificial.
Lo que es más importante, dicen los investigadores, es abordar cuestiones cómo sí la IA puede generar daños y perjuicios en el mundo real.
El Washington Post publicó el sábado una entrevista con Lemoine, quién conversó con un sistema de inteligencia artificial llamado LaMDA, o modelos de lenguaje para aplicaciones de diálogos, un marco que utiliza Google para crear chatbots especializados.
El sistema ha sido entrenado con trillones de palabras para imitar una conversación humana. En su conversación con el chabot. Lemoine concluyó que la IA era un ser consciente que debería tener sus propios derechos. Dijo que el sentimiento no era científico, sino religioso: ¿Quién soy yo para decirle a Dios dónde puede y no puede poner almas?
Los investigadores rechazaron la idea de que IA era realmente sensible, diciendo que la evidencia solo indicaba un sistema altamente capaz de mimetismo humano, no la sensibilidad en sí. ‘Está imitando las percepciones o los sentimientos de los datos de entrenamiento que se le dieron, de manera inteligente y diseñada específicamente para parecer que entiende’, dijo Joana Eggers, directora ejecutiva de la Startup de IA, Nara Logics.
En respuesta a las afirmaciones de Lemoine, Google dijo que LaMDA puede seguir las indicaciones y las preguntas principales, lo que le da la experiencia de poder comentar cualquier tema. ‘Nuestro equipo, incluidos especialistas en ética y tecnológicos, han revisado las preocupaciones de Blake según nuestros principios de ella y le ha informado que la evidencia no respalda sus afirmaciones’, dijo Chris Papas, un portavoz de Google.
Cientos de investigadores e ingenieros han conversado con LaMDA y no hemos tenido conocimiento de que nadie más haya hecho afirmaciones tan amplias o antropomorfolizado a LaMDA.
‘Desde una perspectiva científica, no hay evidencia de que la inteligencia o la conciencia humana estén integradas en estos sistemas’, dijo Bart Selman, profesor de informática de la Universidad de Cornell, que estudia inteligencia artificial. LaMDA ‘es otro ejemplo de esta larga historia’.