Le 5 janvier lors du CES 2026, le PDG de NVIDIA Jensen Huang a dominé la scène dans sa veste en cuir signature pendant 1h30, condensant la vision la plus ambitieuse de l’entreprise pour l’ère de l’IA en une seule présentation à fort impact. Huit annonces majeures ont émergé de cette courte fenêtre, remodelant le paysage concurrentiel, passant de la formation de modèles IA à ce que NVIDIA considère comme la prochaine frontière : l’inférence à grande échelle, rentable, et l’IA physique intégrée dans le monde réel.
Le sous-texte derrière ces annonces reflète un changement fondamental du marché. Alors que la taille des modèles augmente de 10x chaque année et que le nombre de tokens d’inférence s’étend de 5x par an—tout en voyant le coût par token chuter de 10x—l’industrie informatique fait face à une nouvelle contrainte : l’inférence est devenue le goulot d’étranglement, pas la formation. Toute l’architecture Vera Rubin de NVIDIA, annoncée 1h30 plus tôt, est conçue autour de cette réalité.
Six puces personnalisées dans un seul rack : le supercalculateur IA Vera Rubin réimagine densité et performance
Au cœur du matériel se trouve le NVIDIA Vera Rubin POD, un supercalculateur IA conçu sur mesure intégrant six puces propriétaires conçues pour fonctionner en synchronisation. Cette philosophie de co-conception marque une rupture avec l’approche modulaire qui a défini les générations précédentes. Le système phare, Vera Rubin NVL72, intègre 2 trillions de transistors dans un seul rack, délivrant 3,6 EFLOPS de performance d’inférence NVFP4—un bond de cinq fois par rapport à la génération Blackwell précédente.
L’architecture se décompose ainsi :
Vera CPU : construit autour de 88 cœurs Olympus personnalisés avec 176 threads de la technologie de multithreading spatial de NVIDIA. Il supporte 1,8 To/s de bande passante NVLink-C2C, permettant une mémoire unifiée CPU-GPU sans faille. La mémoire système atteint 1,5 To—triplement de la capacité du CPU Grace—avec une bande passante LPDDR5X de 1,2 To/s. Le CPU double la performance de traitement des données et introduit le calcul confidentiel au niveau rack, le premier véritable TEE couvrant à la fois les domaines CPU et GPU.
GPU Rubin : le cœur introduit un moteur Transformer permettant une inférence NVFP4 à 50 PFLOPS (5x Blackwell) et une formation NVFP4 à 35 PFLOPS (3,5x Blackwell). Il supporte la mémoire HBM4 avec 22 To/s de bande passante—2,8x la génération précédente—crucial pour gérer des modèles massifs de type MoE. La compatibilité descendante assure une migration fluide depuis les déploiements Blackwell existants.
Switch NVLink 6 : la vitesse par voie passe à 400 Gbps, atteignant une bande passante totale de 3,6 To/s par GPU (2x génération précédente). La bande passante inter-switch totale atteint 28,8 To/s, avec un calcul en réseau délivrant 14,4 TFLOPS en FP8. Le système fonctionne à 100 % en refroidissement liquide, éliminant toute contrainte thermique.
ConnectX-9 SuperNIC : offre une bande passante de 1,6 Tb/s par GPU, entièrement programmable et définie par logiciel pour les charges de travail IA à grande échelle.
BlueField-4 DPU : une NIC intelligente à 800 Gbps équipée d’un CPU Grace à 64 cœurs et de ConnectX-9. Elle décharge les tâches réseau et stockage tout en renforçant la sécurité—délivrant 6x la performance de calcul et 3x la bande passante mémoire par rapport à la génération précédente, avec un accès GPU au stockage deux fois plus rapide.
Spectrum-X 102,4T CPO : un commutateur optique co-emballé utilisant la technologie SerDes à 200 Gbps, fournissant 102,4 Tb/s par ASIC. La configuration haute densité à 512 ports (800Gb/s par port) permet à l’ensemble du système de fonctionner comme une entité unifiée plutôt que comme des composants isolés.
Le temps d’assemblage est passé de deux heures à cinq minutes, tandis que les fenêtres de maintenance ont été éliminées grâce à l’architecture Switch NVLink sans interruption. La conception modulaire, désormais sans câbles et sans ventilateurs au niveau du plateau de calcul, permet un service 18x plus rapide que les générations précédentes. Ces gains opérationnels se traduisent directement par une réduction du TCO des centres de données et une meilleure disponibilité.
Trois plateformes spécialisées attaquent la contrainte réelle de l’inférence IA : stockage de contexte et débit
Alors que la puissance brute de calcul s’améliore de 5x, l’inférence pose un problème différent—que seul le cycle brut du GPU ne peut résoudre. NVIDIA a introduit trois produits intégrés pour combler cette lacune, chacun ciblant un goulot d’étranglement spécifique dans le monde de l’inférence à grande échelle.
( Spectrum-X Ethernet Co-Packaged Optics : le réseau comme infrastructure critique
Les commutateurs réseau traditionnels consomment énormément d’énergie et introduisent une latence qui nuit à la performance de l’inférence. Le Spectrum-X Ethernet CPO, basé sur l’architecture Spectrum-X avec une conception à deux puces, atteint une efficacité énergétique 5x, une fiabilité 10x supérieure, et une disponibilité des applications 5x améliorée. Le système à 512 ports fonctionne à 800 Gb/s par port, avec une capacité totale de 102,4 Tb/s.
Les implications sont directes : plus de tokens traités par jour signifie un coût par token plus faible, réduisant ainsi le TCO des centres de données d’un facteur que NVIDIA considère comme transformationnel pour les opérateurs hyperscale.
) Plateforme de stockage de mémoire de contexte d’inférence : rendre les caches KV pratiques à grande échelle
Les charges de travail d’inférence pour les systèmes Agentic IA—dialogues multi-tours, RAG (Retrieval-Augmented Generation), raisonnement multi-étapes—exigent un stockage persistant du contexte. Les systèmes actuels font face à un paradoxe : la mémoire GPU est rapide mais rare ; le stockage réseau est abondant mais trop lent pour un accès à court terme. La Plateforme NVIDIA de stockage de mémoire de contexte d’inférence comble cette lacune en traitant le contexte comme un type de donnée de première classe dans l’infrastructure.
Accélérée par BlueField-4 et Spectrum-X, cette nouvelle couche de stockage se connecte aux clusters GPU via des interconnexions NVLink spécialisées. Plutôt que de recalculer à chaque étape de l’inférence les caches clé-valeur, le système les maintient dans un stockage optimisé, atteignant 5x de performance d’inférence et 5x d’efficacité énergétique pour les charges de travail riches en contexte. Pour des systèmes IA évoluant de chatbots sans état à des agents avec état capable de raisonner sur des millions de tokens, cette addition architecturale supprime un goulot d’étranglement fondamental à l’échelle.
NVIDIA collabore avec des partenaires de stockage pour intégrer cette plateforme directement dans les déploiements basés sur Rubin, la positionnant comme un élément central de l’infrastructure IA clé en main plutôt qu’un simple ajout.
DGX SuperPOD ###Vera Rubin Edition( : le plan directeur pour une inférence à coût optimal
Le DGX SuperPOD sert d’architecture de référence pour le déploiement d’inférence IA à grande échelle. Construit sur huit systèmes DGX Vera Rubin NVL72, il exploite NVLink 6 pour l’extension verticale du réseau, Spectrum-X Ethernet pour la scalabilité horizontale, et la plateforme de stockage de mémoire de contexte d’inférence pour l’orchestration du contexte. Toute la pile est gérée par le logiciel NVIDIA Mission Control.
Le résultat : par rapport à l’infrastructure de l’ère Blackwell, la formation de modèles MoE à échelle équivalente nécessite 1/4 du nombre de GPU, et le coût par token pour une inférence MoE à grande échelle chute à 1/10. Pour les fournisseurs cloud et les entreprises, c’est un levier économique massif—la même charge de travail traitée avec beaucoup moins de GPU, générant des économies d’infrastructure de plusieurs milliards à l’échelle.
Nemotron, Blueprints, et l’accélération open-source : construire des systèmes IA multi-modèles, multi-cloud
Parallèlement aux annonces matérielles, NVIDIA a annoncé sa plus grande expansion open-source à ce jour. En 2025, l’entreprise a contribué 650 modèles open-source et 250 jeux de données open-source à Hugging Face, devenant ainsi le plus grand contributeur de la plateforme. Les métriques grand public montrent que l’utilisation de modèles open-source a été multipliée par 20 en un an, représentant environ 25 % de tous les tokens d’inférence.
L’entreprise étend la famille Nemotron avec de nouveaux modèles : systèmes RAG agentiques, modèles de sécurité spécialisés, et modèles de parole conçus pour des applications IA multimodales. Critiquement, NVIDIA distribue ces modèles non pas comme des entités isolées, mais comme des composants d’un cadre plus large appelé Blueprints.
Blueprints incarne une clé d’architecture que Jensen Huang a tirée de l’observation de la perplexité et des premières plateformes d’agents IA : une IA agentique de niveau production est intrinsèquement multi-modèles, multi-cloud, et hybride-cloud par nature. Le cadre permet aux développeurs de :
Orienter dynamiquement les tâches : modèles privés locaux pour les charges sensibles à la latence, modèles cloud pour les capacités de pointe
Appeler des API et outils externes en toute fluidité )email systems, interfaces de contrôle robotique, services de calendrier###
Fusionner des entrées multimodales—texte, voix, images, données de capteurs robot—en représentations unifiées
Ces capacités, autrefois réservées à la science-fiction, sont désormais accessibles aux développeurs via l’intégration SaaS de NVIDIA avec Blueprints. Des implémentations similaires apparaissent sur des plateformes d’entreprise comme ServiceNow et Snowflake, signalant une évolution vers une pensée systémique dans l’IA d’entreprise.
L’enjeu stratégique : NVIDIA démocratise simultanément l’accès aux capacités IA de pointe tout en ancrant ses écosystèmes logiciels comme la norme de facto pour la construction d’agents IA.
IA physique : de la simulation à la réalité—Alpha-Mayo et le point d’inflexion de la robotique
Après l’infrastructure et les modèles open, Huang a pivoté vers ce qu’il a présenté comme la frontière déterminante : l’IA physique—des systèmes qui perçoivent le monde physique, en raisonnent, et génèrent des actions directement. La transition reflète les époques précédentes de l’IA : IA perceptuelle, IA générative, IA agentique. L’IA physique représente le stade où l’intelligence entre dans des systèmes incarnés.
Huang a esquissé une architecture à trois ordinateurs pour le développement de l’IA physique :
Ordinateurs d’entraînement (DGX) : construire des modèles fondamentaux
Ordinateurs d’inférence (puces embarquées dans robots/véhicules) : exécuter des décisions en temps réel
Ordinateurs de simulation (Omniverse) : générer des données synthétiques et valider le raisonnement physique
Le modèle fondamental qui ancre cette pile est Cosmos World Foundation Model, qui aligne langage, images, géométrie 3D, et lois physiques pour supporter toute la chaîne, de la simulation au déploiement en conditions réelles.
( Alpha-Mayo : la conduite autonome comme point d’entrée
La conduite autonome représente la première fenêtre de déploiement à grande échelle pour l’IA physique. NVIDIA a lancé Alpha-Mayo, un système complet comprenant des modèles open-source, des outils de simulation, et des jeux de données pour le développement de la conduite autonome de niveau 4.
Alpha-Mayo fonctionne selon un paradigme basé sur le raisonnement plutôt que sur un comportement appris end-to-end. Le modèle de 10 milliards de paramètres décompose les problèmes en étapes discontinues, raisonne à travers les possibilités, et choisit la trajectoire la plus sûre. Cette architecture permet aux véhicules de gérer des cas extrêmes inédits—comme des défaillances de feux de circulation dans des intersections très fréquentées—en appliquant un raisonnement appris plutôt que des schémas mémorisés.
Dans le déploiement réel, le système accepte des prompts textuels, des flux de caméras à 360°, l’historique de l’état du véhicule, et des entrées de navigation, pour produire une trajectoire de conduite et une explication en langage naturel du raisonnement. Cette transparence est essentielle pour la certification réglementaire et la confiance des passagers.
Mercedes-Benz CLA : NVIDIA a confirmé que la nouvelle Mercedes-Benz CLA, propulsée par Alpha-Mayo, est déjà en production et a récemment obtenu la meilleure note de sécurité du NCAP )Programme d’évaluation des nouvelles voitures(. Le véhicule offre une conduite sur autoroute sans mains et une navigation urbaine autonome de bout en bout, avec des capacités améliorées déployées plus tard en 2026 sur le marché américain. Chaque ligne de code, puce, et composant du système a été certifiée selon des normes de sécurité formelles.
NVIDIA a également publié :
un sous-ensemble de jeux de données utilisés pour entraîner Alpha-Mayo en vue d’un affinement par les chercheurs
Alpha-Sim, un cadre de simulation open-source pour évaluer la performance d’Alpha-Mayo
des outils permettant aux développeurs de combiner données réelles et synthétiques pour des applications de conduite autonome sur mesure
) Partenariats en robotique et intégration industrielle
Au-delà du transport, NVIDIA a annoncé de vastes collaborations en robotique. Des entreprises leaders—Boston Dynamics, Franka Robotics, Surgical, LG Electronics, NEURA, XRLabs, et Logic Robotics—construisent des systèmes sur la plateforme de simulation et de développement NVIDIA Isaac ###et plateforme de développement( et GR00T )un modèle de fondation pour la robotique###.
De plus, NVIDIA a dévoilé un partenariat stratégique avec Siemens. La collaboration intègre les bibliothèques CUDA-X, des modèles IA, et les jumeaux numériques Omniverse dans les outils EDA, CAE, et de jumeaux numériques de Siemens. Cela positionne l’IA physique à chaque étape du cycle de vie, de la conception et simulation à la fabrication et au déploiement réel.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Jensen Huang a fait huit annonces majeures en seulement 1,5 heure, tracant la voie de NVIDIA vers la domination de l'inférence et de la robotique
Le 5 janvier lors du CES 2026, le PDG de NVIDIA Jensen Huang a dominé la scène dans sa veste en cuir signature pendant 1h30, condensant la vision la plus ambitieuse de l’entreprise pour l’ère de l’IA en une seule présentation à fort impact. Huit annonces majeures ont émergé de cette courte fenêtre, remodelant le paysage concurrentiel, passant de la formation de modèles IA à ce que NVIDIA considère comme la prochaine frontière : l’inférence à grande échelle, rentable, et l’IA physique intégrée dans le monde réel.
Le sous-texte derrière ces annonces reflète un changement fondamental du marché. Alors que la taille des modèles augmente de 10x chaque année et que le nombre de tokens d’inférence s’étend de 5x par an—tout en voyant le coût par token chuter de 10x—l’industrie informatique fait face à une nouvelle contrainte : l’inférence est devenue le goulot d’étranglement, pas la formation. Toute l’architecture Vera Rubin de NVIDIA, annoncée 1h30 plus tôt, est conçue autour de cette réalité.
Six puces personnalisées dans un seul rack : le supercalculateur IA Vera Rubin réimagine densité et performance
Au cœur du matériel se trouve le NVIDIA Vera Rubin POD, un supercalculateur IA conçu sur mesure intégrant six puces propriétaires conçues pour fonctionner en synchronisation. Cette philosophie de co-conception marque une rupture avec l’approche modulaire qui a défini les générations précédentes. Le système phare, Vera Rubin NVL72, intègre 2 trillions de transistors dans un seul rack, délivrant 3,6 EFLOPS de performance d’inférence NVFP4—un bond de cinq fois par rapport à la génération Blackwell précédente.
L’architecture se décompose ainsi :
Vera CPU : construit autour de 88 cœurs Olympus personnalisés avec 176 threads de la technologie de multithreading spatial de NVIDIA. Il supporte 1,8 To/s de bande passante NVLink-C2C, permettant une mémoire unifiée CPU-GPU sans faille. La mémoire système atteint 1,5 To—triplement de la capacité du CPU Grace—avec une bande passante LPDDR5X de 1,2 To/s. Le CPU double la performance de traitement des données et introduit le calcul confidentiel au niveau rack, le premier véritable TEE couvrant à la fois les domaines CPU et GPU.
GPU Rubin : le cœur introduit un moteur Transformer permettant une inférence NVFP4 à 50 PFLOPS (5x Blackwell) et une formation NVFP4 à 35 PFLOPS (3,5x Blackwell). Il supporte la mémoire HBM4 avec 22 To/s de bande passante—2,8x la génération précédente—crucial pour gérer des modèles massifs de type MoE. La compatibilité descendante assure une migration fluide depuis les déploiements Blackwell existants.
Switch NVLink 6 : la vitesse par voie passe à 400 Gbps, atteignant une bande passante totale de 3,6 To/s par GPU (2x génération précédente). La bande passante inter-switch totale atteint 28,8 To/s, avec un calcul en réseau délivrant 14,4 TFLOPS en FP8. Le système fonctionne à 100 % en refroidissement liquide, éliminant toute contrainte thermique.
ConnectX-9 SuperNIC : offre une bande passante de 1,6 Tb/s par GPU, entièrement programmable et définie par logiciel pour les charges de travail IA à grande échelle.
BlueField-4 DPU : une NIC intelligente à 800 Gbps équipée d’un CPU Grace à 64 cœurs et de ConnectX-9. Elle décharge les tâches réseau et stockage tout en renforçant la sécurité—délivrant 6x la performance de calcul et 3x la bande passante mémoire par rapport à la génération précédente, avec un accès GPU au stockage deux fois plus rapide.
Spectrum-X 102,4T CPO : un commutateur optique co-emballé utilisant la technologie SerDes à 200 Gbps, fournissant 102,4 Tb/s par ASIC. La configuration haute densité à 512 ports (800Gb/s par port) permet à l’ensemble du système de fonctionner comme une entité unifiée plutôt que comme des composants isolés.
Le temps d’assemblage est passé de deux heures à cinq minutes, tandis que les fenêtres de maintenance ont été éliminées grâce à l’architecture Switch NVLink sans interruption. La conception modulaire, désormais sans câbles et sans ventilateurs au niveau du plateau de calcul, permet un service 18x plus rapide que les générations précédentes. Ces gains opérationnels se traduisent directement par une réduction du TCO des centres de données et une meilleure disponibilité.
Trois plateformes spécialisées attaquent la contrainte réelle de l’inférence IA : stockage de contexte et débit
Alors que la puissance brute de calcul s’améliore de 5x, l’inférence pose un problème différent—que seul le cycle brut du GPU ne peut résoudre. NVIDIA a introduit trois produits intégrés pour combler cette lacune, chacun ciblant un goulot d’étranglement spécifique dans le monde de l’inférence à grande échelle.
( Spectrum-X Ethernet Co-Packaged Optics : le réseau comme infrastructure critique
Les commutateurs réseau traditionnels consomment énormément d’énergie et introduisent une latence qui nuit à la performance de l’inférence. Le Spectrum-X Ethernet CPO, basé sur l’architecture Spectrum-X avec une conception à deux puces, atteint une efficacité énergétique 5x, une fiabilité 10x supérieure, et une disponibilité des applications 5x améliorée. Le système à 512 ports fonctionne à 800 Gb/s par port, avec une capacité totale de 102,4 Tb/s.
Les implications sont directes : plus de tokens traités par jour signifie un coût par token plus faible, réduisant ainsi le TCO des centres de données d’un facteur que NVIDIA considère comme transformationnel pour les opérateurs hyperscale.
) Plateforme de stockage de mémoire de contexte d’inférence : rendre les caches KV pratiques à grande échelle
Les charges de travail d’inférence pour les systèmes Agentic IA—dialogues multi-tours, RAG (Retrieval-Augmented Generation), raisonnement multi-étapes—exigent un stockage persistant du contexte. Les systèmes actuels font face à un paradoxe : la mémoire GPU est rapide mais rare ; le stockage réseau est abondant mais trop lent pour un accès à court terme. La Plateforme NVIDIA de stockage de mémoire de contexte d’inférence comble cette lacune en traitant le contexte comme un type de donnée de première classe dans l’infrastructure.
Accélérée par BlueField-4 et Spectrum-X, cette nouvelle couche de stockage se connecte aux clusters GPU via des interconnexions NVLink spécialisées. Plutôt que de recalculer à chaque étape de l’inférence les caches clé-valeur, le système les maintient dans un stockage optimisé, atteignant 5x de performance d’inférence et 5x d’efficacité énergétique pour les charges de travail riches en contexte. Pour des systèmes IA évoluant de chatbots sans état à des agents avec état capable de raisonner sur des millions de tokens, cette addition architecturale supprime un goulot d’étranglement fondamental à l’échelle.
NVIDIA collabore avec des partenaires de stockage pour intégrer cette plateforme directement dans les déploiements basés sur Rubin, la positionnant comme un élément central de l’infrastructure IA clé en main plutôt qu’un simple ajout.
DGX SuperPOD ###Vera Rubin Edition( : le plan directeur pour une inférence à coût optimal
Le DGX SuperPOD sert d’architecture de référence pour le déploiement d’inférence IA à grande échelle. Construit sur huit systèmes DGX Vera Rubin NVL72, il exploite NVLink 6 pour l’extension verticale du réseau, Spectrum-X Ethernet pour la scalabilité horizontale, et la plateforme de stockage de mémoire de contexte d’inférence pour l’orchestration du contexte. Toute la pile est gérée par le logiciel NVIDIA Mission Control.
Le résultat : par rapport à l’infrastructure de l’ère Blackwell, la formation de modèles MoE à échelle équivalente nécessite 1/4 du nombre de GPU, et le coût par token pour une inférence MoE à grande échelle chute à 1/10. Pour les fournisseurs cloud et les entreprises, c’est un levier économique massif—la même charge de travail traitée avec beaucoup moins de GPU, générant des économies d’infrastructure de plusieurs milliards à l’échelle.
Nemotron, Blueprints, et l’accélération open-source : construire des systèmes IA multi-modèles, multi-cloud
Parallèlement aux annonces matérielles, NVIDIA a annoncé sa plus grande expansion open-source à ce jour. En 2025, l’entreprise a contribué 650 modèles open-source et 250 jeux de données open-source à Hugging Face, devenant ainsi le plus grand contributeur de la plateforme. Les métriques grand public montrent que l’utilisation de modèles open-source a été multipliée par 20 en un an, représentant environ 25 % de tous les tokens d’inférence.
L’entreprise étend la famille Nemotron avec de nouveaux modèles : systèmes RAG agentiques, modèles de sécurité spécialisés, et modèles de parole conçus pour des applications IA multimodales. Critiquement, NVIDIA distribue ces modèles non pas comme des entités isolées, mais comme des composants d’un cadre plus large appelé Blueprints.
Blueprints incarne une clé d’architecture que Jensen Huang a tirée de l’observation de la perplexité et des premières plateformes d’agents IA : une IA agentique de niveau production est intrinsèquement multi-modèles, multi-cloud, et hybride-cloud par nature. Le cadre permet aux développeurs de :
Ces capacités, autrefois réservées à la science-fiction, sont désormais accessibles aux développeurs via l’intégration SaaS de NVIDIA avec Blueprints. Des implémentations similaires apparaissent sur des plateformes d’entreprise comme ServiceNow et Snowflake, signalant une évolution vers une pensée systémique dans l’IA d’entreprise.
L’enjeu stratégique : NVIDIA démocratise simultanément l’accès aux capacités IA de pointe tout en ancrant ses écosystèmes logiciels comme la norme de facto pour la construction d’agents IA.
IA physique : de la simulation à la réalité—Alpha-Mayo et le point d’inflexion de la robotique
Après l’infrastructure et les modèles open, Huang a pivoté vers ce qu’il a présenté comme la frontière déterminante : l’IA physique—des systèmes qui perçoivent le monde physique, en raisonnent, et génèrent des actions directement. La transition reflète les époques précédentes de l’IA : IA perceptuelle, IA générative, IA agentique. L’IA physique représente le stade où l’intelligence entre dans des systèmes incarnés.
Huang a esquissé une architecture à trois ordinateurs pour le développement de l’IA physique :
Le modèle fondamental qui ancre cette pile est Cosmos World Foundation Model, qui aligne langage, images, géométrie 3D, et lois physiques pour supporter toute la chaîne, de la simulation au déploiement en conditions réelles.
( Alpha-Mayo : la conduite autonome comme point d’entrée
La conduite autonome représente la première fenêtre de déploiement à grande échelle pour l’IA physique. NVIDIA a lancé Alpha-Mayo, un système complet comprenant des modèles open-source, des outils de simulation, et des jeux de données pour le développement de la conduite autonome de niveau 4.
Alpha-Mayo fonctionne selon un paradigme basé sur le raisonnement plutôt que sur un comportement appris end-to-end. Le modèle de 10 milliards de paramètres décompose les problèmes en étapes discontinues, raisonne à travers les possibilités, et choisit la trajectoire la plus sûre. Cette architecture permet aux véhicules de gérer des cas extrêmes inédits—comme des défaillances de feux de circulation dans des intersections très fréquentées—en appliquant un raisonnement appris plutôt que des schémas mémorisés.
Dans le déploiement réel, le système accepte des prompts textuels, des flux de caméras à 360°, l’historique de l’état du véhicule, et des entrées de navigation, pour produire une trajectoire de conduite et une explication en langage naturel du raisonnement. Cette transparence est essentielle pour la certification réglementaire et la confiance des passagers.
Mercedes-Benz CLA : NVIDIA a confirmé que la nouvelle Mercedes-Benz CLA, propulsée par Alpha-Mayo, est déjà en production et a récemment obtenu la meilleure note de sécurité du NCAP )Programme d’évaluation des nouvelles voitures(. Le véhicule offre une conduite sur autoroute sans mains et une navigation urbaine autonome de bout en bout, avec des capacités améliorées déployées plus tard en 2026 sur le marché américain. Chaque ligne de code, puce, et composant du système a été certifiée selon des normes de sécurité formelles.
NVIDIA a également publié :
) Partenariats en robotique et intégration industrielle
Au-delà du transport, NVIDIA a annoncé de vastes collaborations en robotique. Des entreprises leaders—Boston Dynamics, Franka Robotics, Surgical, LG Electronics, NEURA, XRLabs, et Logic Robotics—construisent des systèmes sur la plateforme de simulation et de développement NVIDIA Isaac ###et plateforme de développement( et GR00T )un modèle de fondation pour la robotique###.
De plus, NVIDIA a dévoilé un partenariat stratégique avec Siemens. La collaboration intègre les bibliothèques CUDA-X, des modèles IA, et les jumeaux numériques Omniverse dans les outils EDA, CAE, et de jumeaux numériques de Siemens. Cela positionne l’IA physique à chaque étape du cycle de vie, de la conception et simulation à la fabrication et au déploiement réel.