AMD presentó su próxima línea de procesadores de inteligencia artificial (IA), con el objetivo de ayudar a los centros de datos a gestionar grandes cargas de trabajo de IA y desafiar el dominio de Nvidia en el creciente mercado.
Durante una presentación en San Francisco, la compañía reveló que su serie Instinct Ml300 incluirá un acelerador, el Ml300X, diseñado para agilizar el procesamiento de IA generativa, la tecnología utilizada por ChatGPT y otros chatbots. Esta línea de productos fue presentada inicialmente en la conferencia CES en enero.
La firma tecnológica está compitiendo para satisfacer la creciente demanda de cómputo con IA. Los servicios populares que se basan en grandes modelos de lenguaje están ejerciendo una gran presión sobre los centros de datos. Hasta ahora, Nvidia ha tenido una ventaja en el suministro de tecnología para manejar estas cargas de trabajo.
Durante el evento, la directora ejecutiva Lisa Su, mencionó que todavía están en las etapas iniciales del ciclo de vida de la IA y destacó el crecimiento del mercado. Se espera que el mercado total de aceleradores de IA para centros de datos se quintuplique a más de 150,000 millones de dólares en 2027.
En la presentación, ejecutivos de Amazon Web Services (AWS) y Meta Platforms se unieron a Lisa Su en el escenario para hablar sobre el uso de los nuevos procesadores de AMD en sus centros de datos. Además, la compañía anunció la disponibilidad general de la última versión de sus procesadores de servidor Epyc y presentó una nueva variante llamada Bergamo, dirigida a aplicaciones de computación en la nube.
El acelerador Ml300X de AMD se basa en la tecnología CDNA 3 y utiliza hasta 192 gigabytes de memoria para manejar cargas de trabajo de grandes modelos de lenguaje y IA generativa. AMD planea comenzar las pruebas de esta tecnología con clientes clave en el tercer trimestre, y la producción completa se iniciará en el cuarto trimestre. Otro modelo, el Instinct Ml300A, ya está disponible para los clientes.