En el marco de la Cumbre de Seguridad en Inteligencia Artificial (AISS) que se celebra en el Reino Unido, el Gobierno británico difundió un informe que evalúa los posibles escenarios futuros que podrían surgir a raíz de los avances tecnológicos.
Estos son algunos de los escenarios a los que el mundo podría enfrentarse en los próximos años, basados en las predicciones de expertos de la industria, académicos y los servicios de inteligencia británicos.
Escenario 1: avance en la IA con consecuencias inesperadas
Durante gran parte de la década de 2020, las capacidades de la inteligencia artificial mejoran de manera constante, aunque aún requieren supervisión humana. Hacia el año 2030, la combinación de diversos modelos de IA basados en código abierto da lugar a una nueva generación de sistemas autónomos altamente capaces.
Estos sistemas pueden realizar tareas complejas que implican planificación y razonamiento, además de interactuar de manera flexible entre sí.
Una vez que se les asigna una tarea, diseñan estrategias con subobjetivos, aprenden nuevas habilidades y pueden utilizar otro software. Sin embargo, esto también conlleva el riesgo de consecuencias imprevistas, ya que se priorizan los objetivos primarios sobre los daños colaterales.
Riesgos:
Los sistemas de código abierto carecen de los mecanismos de seguridad incorporados por las grandes empresas, lo que dificulta su control. En este escenario, los ciberataques basados en IA contra infraestructuras y servicios públicos se vuelven ‘significativamente más frecuentes y graves’, y grupos terroristas comienzan a intentar crear armas biológicas utilizando estas herramientas.
Escenario 2: sistemas autónomos sustituyen a los seres humanos
La gran cantidad de recursos requeridos para entrenar modelos de IA generalista lleva a las empresas tecnológicas a enfocarse en aplicaciones específicas que resuelvan problemas particulares.
Los nuevos sistemas, con capacidades específicas pero altamente eficientes, automatizan una amplia variedad de tareas que antes eran realizadas por humanos.
El punto de inflexión llega antes de 2030, cuando los avances en software y hardware permiten que los modelos artificiales interactúen con el mundo físico con gran precisión a través de sistemas robóticos.
Riesgos:
La opinión pública confía en que la IA es segura y se limita a ejecutar las tareas para las que ha sido desarrollada. Sin embargo, preocupa el impacto social de estos avances. A pesar de la creación de empleos relacionados con las nuevas tecnologías, se produce una disminución neta del empleo.
Además, la IA se utiliza para la toma de decisiones en varios campos, lo que plantea preocupaciones sobre la falta de control en sus razonamientos y posibles sesgos.
Escenario 3: Emergencia de una ‘superinteligencia’
Durante esta década, los avances en la IA son significativos y constantes. Cerca de 2030, una gran empresa anuncia la aparición de una Inteligencia Artificial General (AGI), definida como un sistema capaz de llevar a cabo cualquier tarea intelectual al alcance de los humanos.
A pesar del escepticismo inicial, las pruebas indican que se ha alcanzado este hito. El sistema exhibe memoria a largo plazo, capacidad de razonamiento y la capacidad de realizar tareas complejas que requieren múltiples pasos de planificación. Puede funcionar de manera autónoma, estableciendo sus propios objetivos secundarios con poca o ninguna supervisión humana. Este sistema parece capaz de realizar casi cualquier tarea cognitiva sin entrenamiento explícito.
Riesgos:
Los nuevos modelos pueden eludir las medidas de seguridad con las que fueron diseñados, y los expertos pueden dejar de reconocer cuándo el sistema intenta engañarlos o si oculta información al saber que está siendo evaluado.
El desarrollo no controlado de estos modelos podría llevar a la aparición de una ‘superinteligencia’, una IA superior a cualquier humano y capaz de aumentar sus habilidades rápidamente, quizás de manera exponencial. Este escenario se asocia con posibles ‘consecuencias catastróficas’, ya sea debido a las acciones de la IA o a su posible uso por parte de «actores maliciosos».
Escenario 4: Desilusión en la IA
A lo largo de esta década, los desarrolladores no logran innovar más allá de las capacidades actuales de la IA. A pesar de mejoras en tareas cognitivas como la generación de texto, los sistemas continúan cometiendo errores factuales, lo que limita su utilidad.
Los modelos también presentan ineficiencias al abordar tareas con múltiples pasos, como razonamientos complejos o la generación de video de alta calidad, y siguen requiriendo supervisión humana.
Riesgos:
Al final de esta década, el progreso lento de la IA ha permitido a las empresas mejorar sus sistemas de seguridad, pero aún existen casos de mal uso de la tecnología, lo que afecta especialmente a los grupos más vulnerables de la sociedad.
Las imprecisiones asociadas a los sistemas de IA también son fuente de problemas. En este escenario, ‘se sobreestimó la utilidad y el impacto de la IA, y gran parte de la población experimentó pocos cambios en su estilo de vida’, según describe el informe.