ジェンセン・黄はわずか1.5時間で8つの主要発表を行い、NVIDIAの推論とロボティクス支配への道筋を示した

2026年1月5日にCESで、NVIDIAのCEOジェンセン・黄は彼のトレードマークであるレザージャケットを着てステージを指揮し、1.5時間にわたりAI時代に向けた同社の最も野心的なビジョンを凝縮したプレゼンテーションを行った。この短時間の中で8つの主要発表がなされ、AIモデルのトレーニングからNVIDIAが次のフロンティアと見なす次の競争領域へと、競争環境を再構築した:コスト効率の良い大規模推論と、現実世界に統合された物理AI。

これらの発表の背景には、根本的な市場の変化を反映したサブテキストが存在する。モデルサイズは年率10倍に拡大し、推論トークン数は年率5倍に増加、しかしトークンあたりコストは10倍削減される中、コンピューティング業界は新たな制約に直面している:トレーニングではなく推論がボトルネックとなっているのだ。1.5時間前に発表されたNVIDIAのVera Rubinアーキテクチャ全体は、この現実を前提に設計されている。

1ラックに6つのカスタムチップ:Vera Rubin AIスーパーコンピュータは密度と性能を再定義

ハードウェアの中核には、6つの独自チップを統合した目的特化型AIスーパーコンピュータ、NVIDIA Vera Rubin PODがある。この共同設計思想は、従来のモジュール式アプローチからの脱却を示す。フラッグシップシステムのVera Rubin NVL72は、1ラックに2兆のトランジスタを搭載し、3.6 EFLOPSのNVFP4推論性能を実現—前世代のBlackwellから5倍の飛躍だ。

アーキテクチャの詳細は以下の通り:

  • Vera CPU:88のカスタムOlympusコアと176スレッドのNVIDIAのSpace Multithreading技術を中心に構築。NVLink-C2C帯域幅は1.8TB/sをサポートし、シームレスなCPU-GPUの統合メモリを実現。システムメモリは1.5TBに拡張—Grace CPUの3倍、LPDDR5X帯域は1.2TB/s。データ処理性能を倍増させ、ラックレベルの秘密計算(Confidential Computing)を導入、CPUとGPU両方にまたがる最初の真のTeeを実現。

  • Rubin GPU:Transformerエンジンを搭載し、NVFP4推論を(50 PFLOPS)、Blackwellの5倍(、NVFP4トレーニングを)35 PFLOPS(、Blackwellの3.5倍)サポート。HBM4メモリと22TB/sの帯域幅を備え、巨大なMixture-of-Experts(MoE)モデルの処理に不可欠。後方互換性も確保されており、既存のBlackwell展開からのスムーズな移行を可能に。

  • NVLink 6 Switch:レーン速度は400Gbpsに跳ね上がり、GPUあたり3.6TB/sの完全インターコネクト帯域を実現(2x前世代)。総クロススイッチ帯域は28.8TB/sに達し、ネットワーク内計算はFP8精度で14.4 TFLOPSを提供。液冷システムを100%採用し、熱制約を排除。

  • ConnectX-9 SuperNIC:GPUあたり1.6Tb/sの帯域を提供し、大規模AIワークロードに完全にプログラム可能かつソフトウェア定義。

  • BlueField-4 DPU:800GbpsのスマートNICで、64コアのGrace CPUとConnectX-9を搭載。ネットワークとストレージの負荷をオフロードし、セキュリティを強化—前世代比で6倍の計算性能、3倍のメモリ帯域、GPUからストレージへのアクセスも2倍高速。

  • Spectrum-X 102.4T CPO:200GbpsのSerDes技術を用いたコパッケージ光スイッチで、102.4Tb/sのASICあたりの帯域を提供。512ポートの高密度構成(800Gb/sポートあたり)により、システム全体を個別のコンポーネントではなく一体として動作させる。

組み立て時間は2時間から5分に短縮され、ゼロダウンタイムのNVLink Switchアーキテクチャによりメンテナンスウィンドウも排除された。ケーブルレス・ファンレスの設計により、サービスの迅速化は18倍に向上。これらの運用効率の向上は、データセンターのTCO削減と稼働時間の改善に直結している。

3つの専門プラットフォームがAI推論の真の制約に挑む:コンテキストストレージとスループット

生の計算能力は5倍向上しているが、推論には異なる問題が存在し、単なるGPUサイクルだけでは解決できない。NVIDIAはこのギャップに対応するため、推論スケールの世界で特定のボトルネックをターゲットにした3つの統合製品を導入した。

Spectrum-X Ethernet Co-Packaged Optics:ネットワークを重要インフラに

従来のネットワークスイッチングは大量の電力を消費し、遅延を生み出し推論性能を阻害してきた。Spectrum-X Ethernet CPOは、Spectrum-Xアーキテクチャに基づき、2チップ設計で、エネルギー効率を5倍、信頼性を10倍、アプリケーションの稼働時間を5倍向上させている。512ポートシステムはポートあたり800Gb/sで動作し、合計102.4Tb/sの容量に拡張可能。

この結果は明白:1日あたり処理されるトークン数が増えれば増えるほど、コスト-per-トークンは低減し、最終的にNVIDIAが位置付ける変革的なハイパースケール運用者向けのTCO削減に寄与する。

推論コンテキストメモリストレージプラットフォーム:KVキャッシュを大規模に実用化

エージェント型AIシステムの推論ワークロード—多ターン対話、Retrieval-Augmented Generation(RAG)、多段階推論—は、永続的なコンテキストストレージを必要とする。現行システムはパラドックスに直面している:GPUメモリは高速だが不足しがち、ネットワークストレージは豊富だが短期的なコンテキストアクセスには遅すぎる。NVIDIA推論コンテキストメモリストレージプラットフォームは、コンテキストをインフラ内の第一級データ型として扱うことでこのギャップを埋める。

BlueField-4とSpectrum-Xの加速により、新たなストレージ層はGPUクラスターに特殊なNVLinkインターコネクトを介して接続される。推論のたびにキー・バリューキャッシュを再計算するのではなく、最適化されたストレージに保持し、コンテキスト重視のワークロードで推論性能を5倍、エネルギー効率も5倍向上させる。何百万ものトークンをまたいで推論し、状態を持つエージェントへと進化するAIシステムにとって、このアーキテクチャの追加は根本的なスケーリングボトルネックを排除する。

NVIDIAはストレージパートナーと協力し、このプラットフォームをRubinベースの展開に直接組み込み、ターンキーAIインフラのコア要素として位置付けている。

( DGX SuperPOD )Vera Rubin Edition###:コスト最適推論の工場設計図

DGX SuperPODは、NVIDIAの大規模AI推論展開のリファレンスアーキテクチャだ。8台のDGX Vera Rubin NVL72システムを基盤とし、NVLink 6による垂直ネットワーク拡張、Spectrum-X Ethernetによる水平スケーリング、推論コンテキストメモリストレージプラットフォームによるコンテキスト調整を行う。全スタックはNVIDIA Mission Controlソフトウェアで管理される。

結果として:Blackwell時代のインフラと比較し、同規模のMoEモデルのトレーニングにはGPU台数が1/4に、巨大MoE推論のトークンコストは1/10に低減される。クラウド事業者や企業にとって、これは巨大な経済的レバーとなり、同じワークロードをはるかに少ないGPUで処理でき、数十億ドル規模のインフラコスト削減につながる。

Nemotron、Blueprints、オープンソースアクセラレーション:マルチモデル・マルチクラウドAIシステム構築

ハードウェア発表と同時に、NVIDIAは最大規模のオープンソース拡張も発表した。2025年には、650のオープンソースモデルと250のオープンソースデータセットをHugging Faceに寄与し、同プラットフォーム最大の貢献者となった。主流の指標では、オープンソースモデルの利用は過去1年で20倍に拡大し、推論トークンの約25%を占めている。

同社はNemotronファミリーを新たなモデルとともに拡充:エージェント型RAGシステム、専門的な安全モデル、多モーダルAIアプリ向けの音声モデルなどだ。重要なのは、これらを孤立したモデルとしてではなく、Blueprintsと呼ばれるより大きなフレームワークの一部として提供している点だ。

Blueprintsは、ジェンセン・黄がPerplexityや初期AIエージェントプラットフォームを観察して導き出した重要なアーキテクチャの洞察を体現している:本番運用レベルのエージェント型AIは本質的にマルチモデル、マルチクラウド、ハイブリッドクラウドである。これにより、開発者は次のことができる:

  • タスクを動的にルーティング:レイテンシー重視のローカルプライベートモデル、最先端機能のクラウドフロンティアモデル
  • 外部APIやツールをシームレスに呼び出し:メールシステム、ロボット制御インターフェース、カレンダーサービスなど
  • テキスト、音声、画像、ロボットセンサーのデータを融合し、統一された表現へ

これらの能力はかつてはSFの抽象概念だったが、今やNVIDIAのSaaS統合によるBlueprintsを通じて開発者がアクセス可能となった。エンタープライズプラットフォームのServiceNowやSnowflakeにも類似の実装が登場し、企業AIにおけるシステムレベルの思考への移行を示している。

戦略的な意味合いは、NVIDIAが最先端AI能力へのアクセスを民主化すると同時に、そのソフトウェアエコシステムをAIエージェント構築のデファクトスタンダードとして定着させている点にある。

物理AI:シミュレーションから現実へ—Alpha-Mayoとロボティクスの転換点

インフラとオープンモデルに続き、黄は次のフロンティアとして定義した物理AIに焦点を移した。これは、物理世界を認識し、それについて推論し、直接行動を生成するシステムだ。これはAIの過去の時代—知覚AI、生成AI、エージェントAI—の流れを踏襲し、知性が具体的なシステムに入り込む段階を示す。

黄は、物理AI開発のための3つのコンピュータアーキテクチャを提案した:

  1. トレーニングコンピュータ (DGX):基礎モデルの構築
  2. 推論コンピュータ (ロボットや車両内の埋め込みチップ):リアルタイム決定の実行
  3. シミュレーションコンピュータ (Omniverse):合成データ生成と物理推論の検証

このスタックの基盤となるモデルはCosmos World Foundation Modelであり、言語、画像、3Dジオメトリ、物理法則を整合させ、シミュレーションから実運用までのフルパイプラインを支える。

( Alpha-Mayo:自動運転を足掛かりに

自動運転は、物理AIの大規模展開の最初の窓口だ。NVIDIAはAlpha-Mayoを公開した。これは、オープンソースモデル、シミュレーションツール、データセットからなるレベル4自動運転開発のための完全システムだ。

Alpha-Mayoは純粋なエンドツーエンドの学習行動ではなく、推論に基づくパラダイムで動作する。10億パラメータのモデルは、問題を離散的なステップに分解し、可能性を推論し、安全な軌道を選択する。このアーキテクチャにより、交通信号の故障などの未曾有のエッジケースに対しても、記憶されたパターンではなく学習した推論を適用して対応できる。

実運用では、テキストプロンプト、周囲カメラ映像、車両状態履歴、ナビゲーション入力を受け取り、運転軌道と推論の自然言語による説明を出力する。この透明性は規制認証や乗客の信頼獲得に不可欠だ。

メルセデス・ベンツCLA:NVIDIAは、Alpha-Mayoを搭載した新型メルセデス・ベンツCLAがすでに生産中であり、最近NCAP(新車評価プログラム)から最高の安全評価を獲得したことを確認した)New Car Assessment Program(。この車両はハンズフリーの高速道路運転と都市部の自動運転ナビゲーションを提供し、2026年後半には米国市場にて機能拡張が予定されている。すべてのコード、チップ、システムコンポーネントは正式な安全認証を取得済み。

NVIDIAはまた、以下も公開した:

  • Alpha-Mayoのトレーニングに使用したデータセットの一部(研究者向け微調整用)
  • Alpha-Mayoの性能評価用のオープンソースシミュレーションフレームワークAlpha-Sim
  • 開発者が実車と合成データを組み合わせてカスタム自動運転アプリを作成できるツール群

) ロボティクス提携と産業連携

交通以外にも、NVIDIAは広範なロボティクス協業を発表した。Boston Dynamics、Franka Robotics、Surgical、LG Electronics、NEURA、XRLabs、Logic Roboticsなどの主要企業が、NVIDIAのIsaac###シミュレーション・開発プラットフォーム(やGR00T)ロボティクス用基盤モデル###上にシステムを構築している。

さらに、NVIDIAはシーメンスとの戦略的提携も明らかにした。これは、NVIDIA CUDA-Xライブラリ、AIモデル、OmniverseデジタルツインをシーメンスのEDA、CAE、デジタルツインツールに統合し、設計・シミュレーションから製造運用、実運用までのライフサイクル全体に物理AIを展開するものだ。

戦略:オープンソースのスピードとハードウェアロックインの融合

1.5時間のキーノートは、推論時代に向けたNVIDIAの二重戦略を明確に示した。一方では、モデルやデータセット、開発ツールを積極的にオープンソース化し、他方では、ハードウェアやインターコネクト、システム設計を深く最適化し、代替困難にしている。

この好循環は次のように働く:

  • オープンソースのモデルとツールが採用を加速
  • 採用拡大が推論スケールの需要を喚起
  • 推論スケールには、コスト効率を追求したNVIDIAの特殊ハードウェアが必要
  • トークン数の拡大とともに、顧客はNVIDIAのインフラにロックインされていく

NVLink 6インターコネクトや推論コンテキストメモリストレージプラットフォームといったシステムレベルの設計思想は、競合他社がNVIDIAの総所有コスト優位性を模倣するのを困難にしている。NVIDIAがNemotronやBlueprintsを通じて「開放」しているように見える動きは、実際には、柔軟性と性能を兼ね備えたAI開発者にとって最適なプラットフォームを、競合が追随できないほどの堀(moat)を強化しているのだ。AI業界がトレーニング中心から推論中心へと移行する中で、この継続的な需要拡大、トークンコスト削減、インフラロックインの戦略は、NVIDIAの経済的堀を拡大し続けており、競合が推論と物理AIの時代に追いつくのは困難になる可能性が高い。

MAJOR-5.91%
IN-3.4%
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン