Jensen Huang, el director ejecutivo de Nvidia, posicionó a la empresa como el motor detrás de el ‘momento iPhone de la inteligencia artificial’, estimulada por el auge de las aplicaciones empresariales y de consumo, como los chatbots avanzados y los generadores de gráficos llamativos.
‘La inteligencia artificial generativa reinventará casi todas las industrias’, dijo Huang.
La idea es construir una infraestructura que pueda hacer que las aplicaciones de IA sean más rápidas y accesibles para los clientes.
Las unidades de procesamiento de gráficos de video se han convertido en el cerebro detrás de ChatGPT y sus similares, ayudándolos a digerir y procesar cantidades cada vez mayores de datos de entrenamiento.
Microsoft reveló la semana pasada que tuvo que unir decenas de miles de GPU A100 de Nvidia en centros de datos para manejar la carga de trabajo computacional en la nube para OpenAI, el desarrollador de ChatGPT.
Otros gigantes tecnológicos están siguiendo su ejemplo con infraestructuras en la nube igualmente colosales, diseñadas para IA.
Oracle anunció que su plataforma contará con 16,000 GPU Nvidia H100, el sucesor del A100, para aplicaciones informáticas de alto rendimiento, y Nvidia, dijo que un próximo sistema de Amazon Web Services podrá escalar hasta 20,000 H100 interconectados. Microsoft también ha comenzado a agregar el H100 a sus racks de servidores.
Este tipo de supercúmulos de chips son parte de un impulso de Nvidia para alquilar servicios de supercomputación a través de un nuevo programa llamado DGX Cloud, alojado por Oracle y pronto Microsoft Azure y Google Cloud.
Nvidia dijo que el objetivo es hacer que acceder a una supercomputadora de India sea tan fácil como abrir una página web, lo que permite a las empresas entrenar sus modelos sin la necesidad de una infraestructura local, que es costosa de instalar y administrar.
‘Proporcione su trabajo, señale su conjunto de datos y presione Go, y se encargará de toda la orquestación y todo lo que hay debajo’, dijo Manuvir Das, vicepresidente de informática empresarial de Nvidia.
El servicio DGX Cloud comenzará en 36,999 dólares por instancia por mes, y cada instancia, esencialmente la cantidad de potencia informática que se alquila, equivale a ocho GPU 100.