Inicio Inteligencia Artificial AMD lanza servidor de IA y OpenAI adopta sus nuevos chips

AMD lanza servidor de IA y OpenAI adopta sus nuevos chips

AMD presentó un nuevo servidor de inteligencia artificial llamado Helios que estará disponible en 2025 y buscará competir con los sistemas de Nvidia mientras OpenAI adoptará los chips más recientes de la compañía

Lisa Su, directora general de AMD, presentó un nuevo servidor de inteligencia artificial que estará disponible en 2026 y que busca competir con las soluciones más potentes de Nvidia.

Durante el evento Advancing AI, el CEO de OpenAI anunció que su compañía comenzará a utilizar los chips más recientes de la firma.

El anuncio se realizó en la conferencia organizada en San José, California. Tras la presentación, las acciones de la compañía registraron una caída cercana al 2%.

Su presentó los chips de las series MI350 y MI400, diseñados para hacer frente a los procesadores Blackwell de Nvidia. La serie MI400 será la base del nuevo servidor llamado Helios, que la empresa planea lanzar en 2025.

Este desarrollo se da en un contexto donde la competencia ya no se enfoca solo en vender chips individuales, sino en ofrecer servidores completos con decenas o cientos de procesadores, integrados con chips de red del mismo fabricante.

Durante su presentación, la compañía indicó que diversos componentes del servidor Helios, como los estándares de red, estarán disponibles de forma abierta y podrán ser aprovechados por otras empresas del sector, incluyendo Intel.

Con ello, busca diferenciarse de Nvidia, que ha utilizado durante años una tecnología propia llamada NVLink para conectar sus chips, aunque recientemente ha comenzado a licenciarla debido a la presión de sus competidores.

Para la empresa, el desarrollo de la inteligencia artificial no será liderado por una sola entidad ni se construirá dentro de un ecosistema cerrado, sino a través de la colaboración abierta entre distintos actores de la industria.

Sam Altman, CEO de OpenAI, participó también en el escenario y explicó que ya están utilizando los procesadores MI300X y MI450 de la compañía. Afirmó que el crecimiento de su infraestructura en el último año y lo que proyectan para el próximo ha sido algo extraordinario.

Además, ejecutivos de xAI (empresa de Elon Musk), Meta y Oracle compartieron cómo están integrando procesadores de la firma en sus operaciones. La empresa Crusoe, proveedora de servicios en la nube especializada en IA, informó que planea adquirir chips de la compañía por un valor de 400 millones de dólares.

Lisa Su confirmó también que la firma mantendrá un ritmo anual en el lanzamiento de productos, en línea con el calendario de Nvidia para su familia Blackwell.

Aunque la empresa ha tenido dificultades para captar parte del mercado de chips de IA dominado por Nvidia, ha trabajado en mejorar su software y en desarrollar procesadores competitivos en rendimiento.

En marzo, completó la adquisición de ZT Systems, un fabricante de servidores, y con ello planea lanzar soluciones completas de inteligencia artificial, similares a las que Nvidia ya comercializa en formato de racks.

Desde su sede en Santa Clara, California, la firma ha sumado pequeñas adquisiciones en semanas recientes, enfocadas en fortalecer sus equipos de diseño de chips y desarrollo de software para IA. En total, ha adquirido 25 empresas en el último año vinculadas a su estrategia de inteligencia artificial.

Entre esas adquisiciones destaca la incorporación del equipo completo de la startup Untether AI, así como la reciente contratación de varios empleados de la empresa de IA generativa Lamini, incluyendo a su cofundador y director ejecutivo.

Uno de los desafíos para la compañía ha sido posicionar su plataforma ROCm frente a CUDA, el ecosistema de software de Nvidia que muchos consideran clave en su dominio del mercado.

En su reporte financiero de mayo, Lisa Su sostuvo que, pese a las restricciones cada vez más estrictas a la exportación de chips de IA hacia China, la firma aún proyecta un crecimiento sólido de dos dígitos en este segmento.