Inicio Inteligencia Artificial Alertan por peligro de una IA ‘más inteligente que los humanos’

Alertan por peligro de una IA ‘más inteligente que los humanos’

Un exempleado de OpenAI alerta sobre el peligro de una inteligencia artificial más inteligente que los humanos

Un exempleado de OpenAI, quien firmó esta semana una carta junto con otros empleados de la empresa creadora de ChatGPT para denunciar la opacidad sobre los posibles riesgos de la inteligencia artificial (IA), advirtió sobre el peligro de una carrera en el sector para crear una super IA o inteligencia artificial general (IAG) que sea tan o más inteligente que los humanos.

Carroll Wainwright renunció la semana pasada a su puesto en el equipo de alineamiento práctico y superalineamiento, encargado de asegurar que los modelos más avanzados de OpenAI sean seguros y estén alineados con los valores humanos.
Una IA más inteligente que los humanos

Desde el lanzamiento del chatbot ChatGPT, Wainwright trabajó en un equipo de superalineamiento para investigar las intervenciones técnicas necesarias para mantener el control sobre los modelos cada vez más inteligentes de OpenAI.

A diferencia de la IA generativa, la IAG no solo podría reproducir acciones humanas como escribir o dibujar, sino también comprender la complejidad y el contexto de sus acciones.

Aunque esta tecnología aún no existe, algunos expertos, como Elon Musk, predicen que se desarrollará en unos dos años, mientras que otros, como Robin Li, director ejecutivo de Baidu, una de las mayores tecnológicas de China, creen que llegará en una década.

Wainwright estima que podría verse en unos cinco años: ‘¿Seguro que sucederá en cinco años? No, pero creo que es posible. También es posible que lleve mucho más tiempo. Pero si hay algo que potencialmente puede cambiar el mundo, deberíamos tomárnoslo muy, muy en serio’, matiza.

Sin embargo, el extrabajador aclara que su renuncia y la firma de la carta no se deben a haber encontrado algo ‘aterrador’, ya que por ahora OpenAI solo está investigando la posibilidad de crear esta tecnología.

 

El cambio de OpenAI

El principal motivo de su renuncia fue el cambio de visión de la compañía, que comenzó como un laboratorio de investigación sin fines de lucro ‘con la misión de que esta tecnología realmente beneficie a la humanidad’, tras el enorme éxito de ChatGPT en 2022.

‘Creo que las motivaciones que impulsan a OpenAI en sus acciones cotidianas son casi en su totalidad incentivos para obtener ganancias’, asegura Wainwright.

 

Los principales riesgos de la IAG

Wainwright subraya tres riesgos de la IAG: que las máquinas sustituyan a los trabajadores, especialmente en trabajos cualificados; el impacto social y mental, ya que la gente podría tener un amigo/asistente personal de IA; y, por último, el control de la tecnología.

‘El riesgo de alineación a largo plazo se produce si se obtiene un modelo que es más inteligente que los humanos. ¿Cómo se puede estar seguro de que ese modelo realmente está haciendo lo que el humano desea que haga o que la máquina no tenga un objetivo propio? Y si tiene un objetivo propio, es preocupante’, explica.

Wainwright confía en que las grandes empresas de la IA respetarán las regulaciones, pero señala que aún no se han implantado, por lo que los empleados de este sector piden en su carta la creación de un sistema en el que los trabajadores puedan alertar a un organismo independiente sobre los peligros que ven en sus empresas.

Según el exempleado, el problema de los gigantes de la IA no es la falta de seguridad, sino la rapidez con la que avanzan debido a la rivalidad entre empresas, especialmente entre OpenAI y Google.

‘El hecho de que nadie quiera que ocurra un desastre no significa que vayan a tomarse el tiempo para asegurarse de que no suceda, ya que existe el incentivo de competir y vencer a todos los demás’, resalta.

El Parlamento Europeo ratificó en marzo la ley de IA de la Unión Europea (UE), la primera regulación de esta tecnología en el mundo, aunque no será hasta 2026 cuando entre en vigor. Según anunció este jueves la prensa especializada, los reguladores de Estados Unidos abrirán investigaciones antimonopolio contra Microsoft, OpenAI y Nvidia para analizar su influencia en el sector.