Inicio Inteligencia Artificial Cómo un chip de IA convirtió a Nvidia en una de las...

Cómo un chip de IA convirtió a Nvidia en una de las principales empresas globales

El chip de inteligencia artificial hizo de Nvidia una de las empresas más valiosas del mundo

Este año, los observadores tecnológicos están obsesionados con un componente de computadora poco conocido que la mayoría de las personas nunca verá.

El procesador H100 ha permitido el desarrollo de una nueva generación de herramientas de inteligencia artificial, lo que ha impulsado a su desarrollador, Nvidia, a convertirse en una de las empresas más valiosas del mundo.

Este chip ha demostrado a los inversionistas que el entusiasmo en torno a la IA generativa se está traduciendo en ingresos reales, al menos para Nvidia y sus proveedores más esenciales. La demanda del H100 es tan alta que algunos clientes tienen que esperar hasta seis meses para recibirlo.

El H100 es una versión más robusta de una unidad de procesamiento gráfico que normalmente se encuentra en las PC y que ayuda a los jugadores de videojuegos a obtener una experiencia visual más realista.

Incluye tecnología que convierte clústeres de chips Nvidia en unidades únicas capaces de procesar grandes volúmenes de datos y realizar cálculos a alta velocidad, lo que lo convierte en una opción ideal para la tarea intensiva de entrenar las redes neuronales que sustentan la IA generativa.

Las plataformas de IA generativa aprenden a realizar tareas como traducir textos, resumir informes y sintetizar imágenes al ingerir grandes cantidades de material preexistente. Cuanto más material procesan, mejoran en tareas como reconocer el habla humana o redactar cartas de presentación para empleos.

El desarrollo de estas capacidades se basa en un proceso de prueba y error, realizando miles de millones de intentos para alcanzar la competencia y consumiendo enormes cantidades de potencia de cómputo en el proceso.

Nvidia afirma que el H100 es cuatro veces más rápido que su predecesor, el A100, en el entrenamiento de los llamados modelos de lenguaje grande (LLM), y es 30 veces más rápido respondiendo a las solicitudes de los usuarios.

Desde el lanzamiento del H100 en 2023, Nvidia ha anunciado versiones que afirma son más rápidas, como el B200 y los modelos Blackwell.

Para las empresas que compiten en el entrenamiento de LLMs para realizar nuevas tareas, esa ventaja de rendimiento creciente puede ser crucial. Muchos de los chips de Nvidia se consideran tan clave para el desarrollo de la IA que el gobierno de EU ha restringido la venta del H200 y de varios modelos menos potentes a China.

La empresa, con sede en Santa Clara, California, es líder mundial en chips gráficos, los componentes en una computadora que generan las imágenes que ves en la pantalla.

Estos chips, los más potentes de su tipo, están construidos con miles de núcleos de procesamiento que ejecutan múltiples hilos de computación simultáneamente, modelando renderizaciones 3D complejas como sombras y reflejos.

Estos aceleradores gráficos pueden reconfigurarse para otras aplicaciones, dividiendo las tareas en partes más pequeñas y trabajando en ellas al mismo tiempo. Los investigadores de IA descubrieron que su trabajo finalmente podría hacerse práctico utilizando este tipo de chip.

Nvidia controla ahora alrededor del 92% del mercado de GPUs para centros de datos, según IDC. Los proveedores de computación en la nube dominantes como AWS, Google Cloud y Microsoft Azure están tratando de desarrollar sus propios chips, al igual que los rivales de Nvidia, Advanced Micro Devices e Intel.

Sin embargo, esos esfuerzos no han avanzado mucho en el mercado de aceleradores de IA. Hasta ahora, el creciente dominio de Nvidia se ha convertido en una preocupación para los reguladores de la industria.