NVIDIA, director senior de infraestructura de IA, Dion Harris, reveló a CNBC detalles sobre el desarrollo de la nueva generación de sistemas de inteligencia artificial Vera Rubin y su despliegue en la cadena de suministro global, incluyendo actualizaciones de capacidad de cálculo, implementación de estándares universales, optimización energética e inversiones en infraestructura en Estados Unidos. Vera Rubin continuará la arquitectura Blackwell actual y se convertirá en un nuevo estándar universal para infraestructura de IA a gran escala, integrando profundamente el diseño de hardware y la cadena de suministro global, lo que ha generado expectativas en el mercado de que impulsará resultados sólidos para NVIDIA.
Estándar de arquitectura universal Vera Rubin conecta cadenas de suministro globales
La arquitectura Blackwell actual cuenta con aproximadamente 1.2 millones de componentes, mientras que la próxima generación Vera Rubin aumentará este número a 1.3 millones. NVIDIA adopta un estándar universal, y más de 80 proveedores y 350 fábricas en todo el mundo implementarán este nuevo estándar, con una cobertura geográfica que abarca Taiwán, Japón, Corea, EE. UU., China, México, Israel, Vietnam y Tailandia, entre otros 20 países. La oblea principal será producida por TSMC, Foxconn se encargará del ensamblaje de chasis, y los proveedores taiwaneses jugarán un papel clave.
HBM4 para resolver el consumo energético en cálculos
Vera Rubin aborda el mayor cuello de botella que amenaza el desarrollo de la IA: el consumo energético. La nueva CPU Vera ofrece aproximadamente el doble de rendimiento por vatio en comparación con la CPU Grace anterior. A diferencia de Blackwell, que solda la memoria en la placa de circuito, Vera Rubin introduce un diseño de memoria SoCAMM desmontable y reemplazable, aumentando la flexibilidad en el mantenimiento del sistema. Para altas demandas de almacenamiento, el sistema utiliza memoria HBM4 de alta ancho de banda suministrada por SK Hynix y Samsung, resolviendo problemas de latencia en el acceso a datos. La interconexión NVLink desarrollada por NVIDIA aumenta la velocidad de línea a 3.6TB por segundo, y junto con una red de cobre de casi dos millas en la parte trasera del chasis, mejora significativamente el rendimiento por consumo de energía.
Sistema de enfriamiento por líquido reemplaza ventiladores, ahorrando agua
Vera Rubin es el primer sistema de NVIDIA en adoptar un sistema de enfriamiento completamente líquido. Para la implementación inicial en Blackwell, algunos clientes reportaron problemas de sobrecalentamiento, pero el equipo técnico identificó que la mayoría de los problemas se debían a errores humanos en la conexión de las válvulas de enfriamiento, no a defectos de diseño. La mayoría de los sistemas ya están operando de manera estable. La bandeja de cálculo de Vera Rubin reemplaza completamente ventiladores, mangueras y cables, usando placas de enfriamiento y un sistema de circuito cerrado para enfriar los procesadores. Aunque el diseño líquido parece consumir más agua, en realidad reduce el uso de recursos hídricos en comparación con los sistemas tradicionales de enfriamiento por evaporación, gracias a su sistema cerrado que minimiza la evaporación.
NVIDIA invierte 500 mil millones de dólares en infraestructura de IA en EE. UU.
Aunque NVIDIA actualmente tiene una ventaja significativa en el mercado, ante riesgos como interrupciones en la cadena de suministro, tensiones geopolíticas y aranceles, la compañía está preparada para invertir hasta 500 mil millones de dólares en infraestructura de IA en EE. UU., utilizando tecnología robótica para automatizar el ensamblaje.
Clientes como Google desarrollan sus propios chips, pero mantienen colaboración con NVIDIA
El competidor AMD planea lanzar su primer sistema a escala de chasis, Helios, para ganar cuota de mercado. Sin embargo, principales clientes como Microsoft, Google, Amazon y Meta, aunque desarrollan sus propios chips como Trainium o TPU, continúan colaborando con NVIDIA. La hoja de ruta tecnológica no se detiene en la arquitectura Rubin; el equipo de desarrollo ya ha presentado un prototipo de la próxima generación, Kyber, que aumenta significativamente el número de GPU en el chasis de 72 a 288. Kyber reduce en gran medida la cantidad de cables internos, cuadruplicando la densidad de cálculo y solo aumentando en un 50% el peso. Este diseño, que disminuye los puntos de conexión y mejora la integración, busca reducir fallos del sistema y lograr comunicaciones con latencia extremadamente baja. Vera Rubin Ultra y la arquitectura Kyber están previstas para 2026 y 2027, respectivamente. El mercado de hardware de IA evoluciona de centrarse en el rendimiento de chips individuales a una competencia integral en integración de sistemas y resiliencia de la cadena de suministro global, y NVIDIA ya ha tomado la delantera en esta carrera.
Esta noticia sobre la estandarización de la arquitectura Vera Rubin en la cadena de suministro global y el crecimiento de resultados de NVIDIA fue publicada originalmente en Chain News ABMedia.