Ante el temido supuesto de que las máquinas logren superar la inteligencia de los humanos, resulta un alivio que se pueda disponer de un sistema de prevención para interrumpirlas.
Deep Mind –empresa de Google especializada en inteligencia artificial– y el FHI –el Instituto para el Futuro de la Humanidad, de la Universidad de Oxford–, han desarrollado conjuntantamente un ‘gran botón rojo’ de emergencia para evitar que las máquinas realicen una ‘secuencia de acciones dañinas’ para el entorno, el operador humano o para ellas mismas, de forma tal que se pueda ‘guiarlas a una situación segura’.
La idea de los desarrolladores es asegurar que las máquinas no puedan aprender a prevenir, impedir o provocar estas interrupciones.
‘Esta forma de interrupción segura puede ser muy útil para tomar el control de un robot que se está comportando mal y puede llevar a consecuencias irreversibles; también para que supere una situación delicada o realice una tarea para la que no había aprendido a comportarse. Pero no está claro si todos los algoritmos pueden ser fácilmente interrumpibles’, admiten los desarrolladores.
‘Este tipo de medidas sirven para ayudar a que la gente acepte a la inteligencia artificial y tenga claro que siempre va a estar controlada’, añadieron los especialistas.
La investigación se dirige hacia ‘un tipo de inteligencia artificial –de aprendizaje reforzado–, que ha despegado muy fuerte porque es más sencillo desarrollarla. Lo que hace el robot es maximizar una especie de función matemática, pero no entiende los conceptos sobre los que trabaja. Como solo entiende fórmulas es posible que exista el problema potencial de que decida ignorar o dañar a los humanos que la han programado, pero es algo improbable’, explica Juan Antonio Recio, director del departamento de Ingeniería de Software e Inteligencia Artificial de la Universidad Complutense de Madrid.
Recio sostiene que este problema no ocurriría con otro tipo de inteligencias que en vez de entender fórmulas comprendieran conceptos como un humano, como es la inteligencia simbólica. ‘De cualquier forma, este tipo de medidas sirven para tranquilizar a la sociedad, para ayudar a que la gente acepte a esa inteligencia artificial, para que tenga claro que siempre va a estar controlada, que nunca se va a ir de las manos’.
El Director del FHI, Nick Bostrom, ya escribía en su libro ‘Superinteligencia: caminos, peligros, estrategias’, sobre cómo las máquinas iban a superar a sus programadores, ser más inteligentes y capaces de mejorarse así mismas, e iban a tomar el planeta.
‘Debemos saber cómo controlarlas. Si tienes un agente artificial con objetivos distintos a los tuyos, cuando se vuelve lo suficientemente inteligente, es capaz de anticipar tus acciones y de hacer planes teniendo en cuenta los tuyos, lo cual podría incluir esconder sus propias capacidades de modo estratégico’, sostenía en una entrevista con El País.
Otros expertos de inteligencia artificial que Bostrom cita en su libro afirman que hay un 90% de posibilidades de que entre 2075 y 2090 hayan máquinas tan inteligentes como los humanos.
Con información de El País