Nvidiaのセンスンエン最高経営責任者がAIブームの次について語る

ジェンセン・黄が今年のGTCで革ジャンの入り口に立つ前に、Nvidia($NVDA)はすでに神話の販売を始めていた。プレショーのサウンドトラックは、まるで戴冠式のために特別に作られたかのように疑わしいほどにカスタムメイドで、素晴らしいことが予定通りに到着し、伝説が生まれ、未来がちょうど合図通りに現れる歌詞や、シャザムでも識別できない曲まであった。(その日のAIデモはおそらくプレイリストだった可能性も高い。)会場の半分は、黄の入場に向けてスマートフォンを掲げ、シリコンバレーが自分たちのアリーナアクトを予約したかのようだった。一日の間、サンノゼ・シャークスのホームリンクは、まったく異なるタイプのパワープレイのために占拠された。黄がステージに登場し、得意のことをやったからだ:製品の基調講演を未来のゾーニング・ヒアリングに変える。

Nvidiaの創設者は、GTCを「AIのあらゆる層」を巡るツアーで始め、その後数時間にわたり、同社が単に熱い市場にチップを売るだけではないと主張した。いいえ。同社はAI経済の全物理的インフラを定義したいのだ:計算、ネットワーキング、ストレージ、ソフトウェア、モデル、工場、そして—季節外れの微妙さは明らかに不要—もしかすると宇宙空間にある(まだ理論段階の)データセンターさえも。

基調講演はあらゆる方向に発表を散らしたが、真のメッセージはより凝縮されていた。黄は投資家、顧客、ライバルに対して、次の4つのポイントを明確に伝えたかった:AIの需要は依然として急速に伸びており、莫大な投資を正当化している;推論が今や戦場の中心である;エージェントはチャットボットから日常のオフィス作業の機械へと溢れ出すべきだ;そして、デジタルAIの次の金鉱は物理的AIかもしれず、ロボット、自律システム、産業用ソフトウェアがさらに多くのデータとインフラを消費するだろう。NvidiaなしではAIは綴れない。

黄は、通常市場がNvidiaの堀がいつか漏れるのかと疑問を持ち始めたときに最初に開く場所、すなわちソフトウェアから始めた。彼は早い段階でCUDAが20年前のものであり、Nvidiaのインストールベースは「すべてのクラウド」や「すべてのコンピュータ企業」に存在すると再確認した。Nvidiaの最も強力な盾は、シリコン自体ではなく、その周囲のソフトウェアエコシステムだ。

その論理は、スピーチの残りの部分を形作った。黄は構造化データに焦点を当て、それを「エンタープライズコンピューティングの地面の真実」と呼び、AIがついにPDFや動画、音声といった非構造化情報の海を活用できると述べた。これらは企業の屋根裏に長年蓄積されてきたが、検索や収益化の方法がわからなかったものだ。世界よ、注意しろ;Nvidiaもデータベースに名乗りを上げたい。

GTCはもはや高速で優れたチップだけの話ではない。今年の大きなスピーチは、NvidiaがAIの経済性そのものを所有しようとする試みについてだった—チップ、ストレージ、ネットワーキング、オーケストレーション層、デジタルツイン、オープンモデルの政治、エージェントのランタイム、そして地球が混雑し始めた後のデータセンターの次の段階まで。GTC 2026は推論の基調講演、エージェントの基調講演、AI工場の基調講演であり、ハードウェアは証拠としての役割を果たし、物語の中心ではなかった。

さて、それは大きな数字だ

黄の最大の見せびらかしは数値だった。CUDAの20周年を記念し、それを加速計算の推進力と呼び、「過去数年で計算需要は100万倍に増加した」と述べ、さらに2025年から2027年までの収益機会を少なくとも1兆ドルと見積もり、以前のBlackwellとRubinの需要に対して2026年までの5000億ドルの見積もりから引き上げた。月曜日にNvidiaの株価は1.6%上昇し、これは承認の表れと解釈できる。

この数字と黄の枠組みは、おそらく基調講演の組織原則だった。Nvidiaは投資家と顧客に対して、構築はまだ初期段階であり、拡大中であり、現在の支出は前払い金のようなものであると公に大きな声で伝えたかったのだ。その数字はまた、静かに整理も行った。Nvidiaは、資本支出の熱狂の中で主要なキャッシュレジスターとなったときに寄せられる、いつもの質問に何ヶ月も対応してきた:「これがいつまで続くのか?」「ハイパースケーラーがコストに宗教的熱意を持ったらどうなるのか?」「次のフェーズの一部はカスタムチップや安価な代替品に漏れるのか?」

黄の答えは視野を広げることだった—市場を大きくし、作業負荷をより複雑にすること。彼は「推論のピークが到来した」と述べ、基調の中核をシンプルな議論に据えた:AIは今や生産的な作業ができる。そうなれば、需要の姿は変わる。巨大モデルのトレーニングやそれらを賞賛することは決して最終段階ではなかった。それはすべて生産に移行し、メーターは止まらない。

これこそがあなたの収益だ、と彼は言っている。データセンターを金庫に、電力料金を運命に変える。Nvidiaは現実をほぼ請求できるほど改善し続けており、会場には、デモが超越的に見えるのか、単に少し高価なだけなのかを決めかねている人々がまだ残っていた。

基調講演にはトークンがあちこちに登場した—オープニングビデオ、パフォーマンスチャート、経済的議論の中で。要点は、AIの将来価値は有用な出力を継続的に生成することにあり、これにより推論がコスト、遅延、スループットの面で本当に重要な部分となることだ。黄は依存性を提唱している。顧客には、サーバーを自由に組み合わせるのではなく、ギガワット規模のキャンパス、統合ラック、メガワット予算、トークンスループット曲線を考えるよう促している。

推論が主役に

おそらく最も鋭い一言は、また最もシンプルなものだった:「推論のピークが到来した。」Nvidiaは、より安価でスリムな推論ハードウェアに世界が関心を持ち始めていることを理解している。いいだろう。それも売りたい。

黄は推論を二段階に分けた—プリフィルとデコード—し、NvidiaのVera Rubinチップがプリフィル作業を担当し、Groq由来のシリコンがデコードを担うシステムを提案した。これは実際に答えを吐き出すステップだ。これが重要だ;推論は、次の章がより複雑になる場所だ。トレーニングは会社を豊かにした。リアルタイムで何億人ものユーザーにサービスを提供する段階では、コストや遅延、すべてのステップに同じシリコンが必要かどうかといった疑問が出てくる。

黄の答えは、典型的なNvidia流だった。GPUだけを孤立させて守るのではなく、全スタックを飲み込め。彼はVera Rubinを「世代を超えた飛躍」と呼び、7つのチップと5つのラックスケールシステムを中心に構築されたと述べた。Nvidiaは、このプラットフォームがBlackwellに比べて4分の1のGPUで大規模なエキスパートモデルを訓練でき、1ワットあたり最大10倍の推論スループットを提供し、トークンあたりのコストは1/10に抑えられると主張した。また、基調講演を通じてRubinの未来のプラットフォームFeynmanにも目を向けた。なぜなら、Nvidiaの世界では、次世代は今の世代が退場する前に控えているからだ。

黄は、より速い部品を提案するのではなく、より大きな依存性を提案している。NvidiaはVera Rubin DSX AI工場のリファレンスデザイン、AI工場の計画用シミュレーションツール、そして縦割りの機械として動作するストレージ、ネットワーキング、システムコンポーネントの幅広いメニューを発表した。メッセージは明白だ:サーバーのことは考えず、キャンパスのことを考えろ。あるいは、Nvidiaなら請求書を送るユーティリティのように。

エージェントはデモの舞台を去る

ハードウェアの提案がNvidiaを推論の中心に置き続けることを狙ったのに対し、ソフトウェアの提案は、企業のAIが他者のパーティーにならないようにすることだった。黄は「Nvidiaの100%が」Claude Code、Codex、Cursorを使用していると述べた。もはや人々はAIに「誰」「何」「いつ」「どこで」「どうやって」と尋ねるのではなく、「作る」「やる」と頼むようになっている。申し訳ない、チャットボット企業の皆さん—AIはもはや会話の新奇性ではなく、労働システムとして扱われている。

黄は、Nvidiaのスタックを通じてその労働システムを動かすことに注力した。会社はOpenClawとNemoClawをOpenClawコミュニティ向けに展開し、トレンディな企業と提携し、エージェントツールキットとOpenShellランタイムを推進し、AI-Qに注力した。これは、フロンティアとNvidiaのオープンモデルのハイブリッドを通じて問い合わせをルーティングし、コストを50%以上削減することを目的としている。

そのすべての中に戦略的なヘッジも隠されている。

NvidiaはBlack Forest Labs、Cursor、LangChain、Mistral、Perplexity、Reflection AI、Sarvam、Thinking Machines LabとともにNemotron連合を発表し、最初のプロジェクトは今後のNemotron 4モデルファミリーの基盤となる予定だ。サブテキストを読むと、NvidiaはAIソフトウェアの未来を、いくつかの巨大なクローズドモデルベンダーとコモディティハードウェアの山の間にきれいに分けたくないことが明らかだ。むしろ、オープンモデル層にも関与したいのだ—それは、誰がAIを構築し、調整し、所有するかを決める部分だ。

帝国の提案はさらに大きくなる

そして、黄はメタファーを拡大するのが得意な男だけあって、基調講演はデータセンターからほぼすべての隣接産業へと広がった。

黄はしばらく前から、Nvidiaの物語をデジタルアシスタントだけにとどまらず拡大してきた。今年のGTCもそのテーマをさらに強調した。NvidiaはMicrosoft($MSFT)AzureやNebiusと共同で、ロボティクス、ビジョンAIエージェント、自律走行車のためのトレーニングデータ生成・拡張・評価を自動化する「Physical AI Data Factory Blueprint」を発表した。シンプルなメッセージはこうだ:実世界のデータは希少であり、エッジケースは面倒だ。そこで、合成データとシミュレーションが計算資源の原料となる。

黄はまた、DreamZero研究に基づく次世代ロボット基盤モデル「GR00T N2」を予告した。これは、新しい環境での新タスクにおいて、リーディングVLAモデルの成功を2倍以上にするという。チャットボットはウォール街を興奮させた。物理的AIは、ロボットや産業システム、自律機械が必要とする無限のトレーニングデータ、シミュレーション、ネットワーキング、センサー、エッジ計算を継続的に供給できる部分だ。

黄はまた、ディズニー($DIS)のオラフをステージに呼び出し、物理AIの舞台劇の一端を披露した。これは、他のアーキテクチャのスライドよりも明確にポイントを伝えた。Nvidiaは、ディズニーがGPU加速の物理シミュレーターを使ってオラフやBDXドロイドを訓練していると述べており、そのシミュレーターはNvidiaのWarpフレームワーク上に構築され、Newtonに統合されている。オラフは3月29日にパリのディズニーランドでデビュー予定だ。

Nvidiaはまた、自律走行車の位置づけも確保した。BYD、Geely、Isuzu、Nissanは同社のDRIVE Hyperionスタックを使ったレベル4対応車を開発中で、Uber($UBER)は2027年前半にNvidia搭載のロボタクシーをロサンゼルスとサンフランシスコで展開し、2028年までに28市場に拡大予定だ。自律性は、黄の広範な主張にほとんどぴったりと収まる:AIの次の段階は物理世界を通じて進む。つまり、より多くのセンサー、シミュレーション、ネットワーキング、エッジ計算、そして便利なことに、Nvidiaにとってはより高価なハードウェアが必要になる。

黄はさらに、大きくて優れたストーリーを一歩進め、Nvidiaが宇宙へ進出すると述べた。将来のVera Rubinベースのシステムは軌道上のデータセンターや自律宇宙運用を目指すという。確かに、それは未開拓のセクターがまだいくつか残っていることを示す男のように聞こえるが、同時に、「AIインフラ」とはほぼすべての高価なマシンを意味する決意の表れでもある。確かに、Nvidiaは依然としてチップの王者だが、黄はもはやその称号に特に興味を持っているわけではない。彼の会社は、チップ供給者から工場設計者、オペレーティングシステムベンダー、そしてAIがより多くの仕事をし、電力制約のあるデータセンターがトークンあたりの収益エンジンとなる世界の徴税者へと進化しようとしている。

黄が終わる頃には、基調講演は単なるローンチカレンダー以上の規模に感じられた。それは帝国の地図のようだった。確かに、DLSS 5によるグラフィックス、産業用ソフトウェアの新たな連携、通信のエッジパートナーシップ、そして開発者向けの多くの仕組みもあった。しかし、最も持続的なメッセージはシンプルで、より大きなものだった:NvidiaはAIを単なるソフトウェアカテゴリとして理解されるのをやめさせ、ユーティリティ規模のインフラプロジェクトとして扱わせたい。Nvidiaのハードウェアとソフトウェアは、あらゆる層に埋め込まれる。

これは非常にジェンセン・黄のメッセージだ。ライバルにとって不安なのは、少なくとも今のところ、彼にはそれを支える顧客が十分にいるということだ。

📬 毎日のブリーフィングに登録する

毎週平日の朝にお届けする、無料で迅速かつ楽しい世界経済のブリーフィング。

登録してください

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン