NVIDIA Vice President of AI Infrastructure Dion Harris a révélé à CNBC les détails du développement de la nouvelle génération de systèmes d’intelligence artificielle Vera Rubin, ainsi que le déploiement mondial de la chaîne d’approvisionnement, comprenant la mise à niveau de la puissance de calcul, la mise en œuvre de normes universelles, l’optimisation énergétique et les investissements dans la construction d’infrastructures aux États-Unis. Vera Rubin succédera à l’architecture Blackwell actuelle et deviendra la nouvelle référence universelle pour l’infrastructure d’intelligence artificielle à grande échelle, intégrant profondément la conception matérielle et la chaîne d’approvisionnement mondiale. Le marché est optimiste, anticipant une forte performance pour NVIDIA.
Norme d’architecture universelle Vera Rubin connectant la chaîne d’approvisionnement mondiale
L’architecture Blackwell actuelle comprend environ 1,2 million de composants, tandis que la prochaine génération Vera Rubin portera ce nombre à 1,3 million. NVIDIA adopte une norme d’architecture universelle, qui sera utilisée par plus de 80 fournisseurs et 350 usines à travers le monde, couvrant plus de 20 pays tels que Taïwan, Japon, Corée du Sud, États-Unis, Chine, Mexique, Israël, Vietnam et Thaïlande. La puce principale est fabriquée par TSMC, Foxconn se charge de l’assemblage, et les fournisseurs taïwanais jouent un rôle clé.
HBM4 pour réduire la consommation d’énergie lors des calculs
Vera Rubin résout le principal obstacle actuel au développement de l’IA : la consommation d’énergie. La nouvelle génération de CPU Vera offre une performance par watt environ deux fois supérieure à celle du CPU Grace précédent. Contrairement à Blackwell, où la mémoire est soudée directement sur la carte, Vera Rubin introduit une conception de mémoire SoCAMM amovible et remplaçable, augmentant la flexibilité de maintenance du système. Pour les besoins de stockage à haute charge, le système utilise de la mémoire haute bande passante HBM4 fournie par SK Hynix et Samsung, résolvant les problèmes de latence d’accès aux données. Grâce à l’interconnexion NVLink développée par NVIDIA, la vitesse de transfert atteint 3,6 TB par seconde, associée à un réseau de cuivre de deux miles derrière le rack, améliorant significativement le rendement de calcul par unité de consommation.
Système de refroidissement liquide remplaçant les ventilateurs, économisant l’eau
Vera Rubin est la première solution NVIDIA entièrement refroidie par liquide. Lors du déploiement initial de Blackwell, certains clients ont signalé des problèmes de surchauffe, principalement dus à des erreurs d’installation humaine lors de la connexion des vannes de refroidissement liquide, plutôt qu’à un défaut de conception. La majorité des systèmes fonctionnent désormais de manière stable. La plateforme de calcul Vera Rubin remplace complètement les ventilateurs, les tuyaux et les câbles par des plaques de refroidissement et un circuit fermé d’eau pour refroidir directement les processeurs. Bien que la conception liquide semble consommer de l’eau, le système en circuit fermé réduit la consommation d’eau par rapport aux techniques de refroidissement évaporatif traditionnelles, offrant ainsi un avantage en termes d’économie d’eau.
NVIDIA investit 500 milliards de dollars aux États-Unis pour construire une infrastructure d’IA
Malgré l’avantage concurrentiel actuel de NVIDIA sur le marché, face aux risques liés aux perturbations de la chaîne d’approvisionnement, à la géopolitique et aux droits de douane, l’entreprise prévoit d’investir jusqu’à 500 milliards de dollars aux États-Unis dans une infrastructure d’IA, utilisant la robotique pour automatiser l’assemblage.
Clients comme Google développent leurs propres puces tout en maintenant une collaboration avec NVIDIA
Les concurrents de NVIDIA, comme AMD, prévoient de lancer leur premier système à grande échelle, Helios, pour gagner des parts de marché. De leur côté, des clients majeurs tels que Microsoft, Google, Amazon et Meta continuent de développer leurs propres puces, comme Trainium ou TPU, tout en conservant leur partenariat avec NVIDIA. La voie de développement technologique ne s’arrête pas à l’architecture Rubin ; l’équipe de R&D a déjà présenté un prototype de la prochaine génération, l’architecture Kyber, qui augmente le nombre de GPU dans un rack de 72 à 288. Kyber réduit considérablement le câblage interne, quadruplant la densité de calcul tout en n’augmentant le poids que d’environ 50 %. Cette conception visant à réduire les points de connexion et à renforcer l’intégration vise à diminuer la probabilité de défaillance du système et à atteindre une latence extrêmement faible. Vera Rubin Ultra et l’architecture Kyber sont respectivement prévues pour 2026 et 2027. Le marché du matériel d’IA évolue d’une simple compétition de performance de puces vers une compétition globale d’intégration système et de résilience de la chaîne d’approvisionnement, NVIDIA ayant déjà pris une avance significative sur ses concurrents.
Ce article intitulé “Norme universelle Vera Rubin de NVIDIA rassemble la chaîne d’approvisionnement taïwanaise et mondiale, performance en hausse” a été publié pour la première fois sur Chain News ABMedia.