Inicio Inteligencia Artificial Microsoft prepara sucesor de supercomputadora de IA

Microsoft prepara sucesor de supercomputadora de IA

Microsoft ya trabaja en la próxima generación de la supercomputadora de IA, como parte del acuerdo de inversión con OpenAI

Supercomputadoras

Cuando Microsoft invirtió 1,000 millones en OpenAI en 2019, acordó construir una supercomputadora 0de vanguardia para la puesta en marcha de investigación de inteligencia artificial.

El único problema es que el gigante tecnológico no contaba con nada cercano a las necesidades de OpenAI y no estaba totalmente seguro de poder construir algo tan grande en su servicio en la nube de Azure sin que tuviera fallas.

Open AI estaba tratando de entrenar un conjunto cada vez más grande de programas de inteligencia artificial, llamados ‘modelos’, que estaban incorporando mayores volúmenes de datos y aprendiendo más y más parámetros, las variables que el sistema había descubierto a través del entrenamiento y el reentrenamiento.

Eso significaba que OpenAI necesitaba acceso a potentes servicios de computación en la nube durante largos periodos.

Para enfrentar ese desafío, Microsoft tuvo que encontrar formas de unir decenas de miles de chips, gráficos A100 de Nvidia -el caballo de batalla para entrenar modelos de IA-, y cambiar la forma en que coloca los servidores en bastidores para evitar cortes de energía.

Scott Gruthrie, vicepresidente ejecutivo de Microsoft que supervisa la nube y la inteligencia artificial, no tiene un costo específico para el proyecto, pero dijo que probablemente sean más de cientos de millones de dólares.

‘Construimos una arquitectura de sistema que podía operar y ser confiable a gran escala. Eso es lo que hizo que el ChatGPT fuera posible’, dijo Nidhi Chappell, gerente general de infraestructuras de IA de Azure de Microsoft. ‘Ese es un modelo que salió de ahí. Habrá muchos otros’.

La tecnología permitió a OpenAI lanzar ChatGPT, el chatbot viral, que atrajo a más de 1 millón de usuarios a los pocos días de salir a bolsa en noviembre, y ahora se está incorporando a los modelos comerciales de otras empresas, desde fondos de cobertura hasta la industria alimentaria.

A medida que las herramientas de inteligencia artificial generativa como ChatGPT ganan interés de empresas y consumidores, se ejercerá más presión sobre los proveedores de servicios en la nube, como Microsoft, Amazon y Google, para garantizar que sus centros de datos puedan proporcionar la enorme potencia informática necesaria.

El gigante de software, ya está trabajando en la próxima generación de la supercomputadora AI, parte de un acuerdo ampliado con OpenAI en el que Microsoft agregó 10,000 millones de dólares a su inversión.

Entrenar un modelo masivo de IA requiere de un gran grupo de unidades de procesamiento de gráficos conectados en un solo lugar, como la supercomputadora IA de Microsoft.

Microsoft también implementa chips gráficos para inferencia, pero esos procesadores, cientos de miles de ellos, están dispersos geográficamente en las más de 60 regiones de centros de datos de la empresa.

Ahora, la compañía está agregando el último chip gráfico Nvidia para cargas de trabajo de IA, el LH100, y la versión más nueva de la tecnología de red infiniband de Nvidia para compartir datos aún más rápido.

Microsoft seguirá trabajando en diseños de chip y servidores personalizados, y en formas de optimizar su cadena de suministro para obtener cualquier ganancia de velocidad, eficiencia y ahorro de costos, dijo Scott Guthrie, vicepresidente, ejecutivo de Microsoft, que supervisa la nube y la inteligencia artificial.

‘El modelo que está asombrando al mundo en este momento se basa en la supercomputadora que comenzamos a construir hace un par de años. Los nuevos modelos se construírán sobre la nueva supercomputadora que estamos entrenando ahora, que es mucho más grande y que permitirá una sofisticación aún mayor’, declaró Guthrie.