辉达执行长黄仁勋在 GTC 2026 喊出「到 2027 年至少 1 兆美元需求」,并用 Token 工厂、CUDA 飞轮、Vera Rubin 怪物系统、OpenClaw 智慧体操作系统,完整拼出辉达的下一个十年蓝图。
(前情提要:黄仁勋 GTC 演讲「DLSS 5、NemoClaw 」点燃 AI 币:FET 飙 20%、NEAR、Worldcoin 创近月新高)
(背景补充:中国国家安全部警告「龙虾养殖」:OpenClaw 埋四大安全雷区,你的装置可能被接管)
本文目录
切换
2026 年 3 月 16 日,辉达 GTC 大会开幕,黄仁勋站在舞台上说了一句让全场静默的话:「去年我说有 5,000 亿美元的高确信度需求。现在,就在此刻,我看到的数字至少是 1 兆美元。而且我确定,实际需求还要更高。」
这句话一出,辉达股价当天涨超 4.3%。但黄仁勋并不只是在报数字,他花了整场演讲解释这 1 兆美元到底从哪里来、为什么还不够。
整场演讲的起点,是辉达的老本行——CUDA。今年是 CUDA 诞生二十周年,黄仁勋把它形容为辉达「100% 的战略逻辑」。
白话翻译一下:CUDA 就是让 GPU 能被开发者写程序的技术。二十年前它出现时,没人确定它会成功,但辉达押上了大半公司资源死撑。现在回头看,这个决定让辉达建立起几乎无法复制的护城河——数亿块执行 CUDA 的 GPU 遍布全球,数十万个开源项目依赖它,每家云端服务商都整合了它。
黄仁勋说这叫「飞轮」:装机量大 → 吸引开发者 → 开发者创造新算法 → 算法突破带来新市场 → 新市场扩大装机量 → 飞轮继续转。更妙的是,辉达持续更新软件优化,六年前的 Ampere 架构 GPU 在云端的租用价格反而还在涨——因为跑在上面的应用越来越多、越来越值钱。
这是黄仁勋这次演讲最核心的概念,也是解释那 1 兆美元需求的关键逻辑。
简单来说就是:过去的资料中心是「仓库」,用来存你的档案和资料;未来的资料中心是「工厂」,用来生产 AI 的基本单位——Token(可以理解成 AI 思考和说话的最小单位)。
黄仁勋说,每座资料中心都受电力限制,一个 1 吉瓦(GW)的厂永远不会变成 2 吉瓦,这是物理定律。所以竞争的核心问题就变成:同样的电,谁能生产最多的 Token?谁的每瓦 Token 吞吐量最高,谁的生产成本就最低,谁就赢。
Token 还会分层定价,就像商务舱和经济舱:
换句话说,同样一块 GPU,黄仁勋告诉你要把它的功率分配到不同服务层级——吞吐量越高、速度越快,能赚的钱越多。他的估算是,相比上一代 Hopper 架构,新系统 Grace Blackwell 可以在同等功率下创造出 5 倍的收入。
黄仁勋说,提到上一代 Hopper,他可以举起一块晶片展示;但说到 Vera Rubin,大家想到的是整个系统。
数字说话:在同一座 1 吉瓦的资料中心里,Token 生成速率从 2200 万个/秒提升到 7 亿个/秒,两年内提升了 350 倍。相比之下,同期的摩尔定律只能带来约 1.5 倍的提升。
这个怪物系统长什么样?Vera Rubin 是 100% 液冷、全面消灭传统线缆的设计,过去需要两天安装的机架,现在只要两小时。黄仁勋说,微软 Azure 已确认首台 Vera Rubin 机架正式上线。
辉达把 Groq 的技术整合进来,不是为了取代自家 GPU,而是为了做「非对称分离推理」——听起来复杂,白话翻译一下就是:把 AI 推理这件事拆成两段,各找最适合的工具来做。
Groq 芯片的特点是有大量高速 SRAM(500MB),反应极快但记忆体小,适合做最后输出 Token 那个步骤。Vera Rubin 芯片记忆体大(288GB),适合做前期的大量计算和快取。
辉达用 Dynamo 软件把这两者串在一起:「预填充」和注意力机制的解码交给 Vera Rubin,对延迟极度敏感的 Token 生成部分交给 Groq。两者用以太网紧密耦合,整体延迟减少约一半。
黄仁勋还给了一个配置建议:如果工作主要是高吞吐,100% 用 Vera Rubin;如果有大量高价值的程式码生成需求,拿出约 25% 的资料中心规模给 Groq。Groq LP30 芯片已由三星代工量产,预计第三季出货。
黄仁勋说,十年前 GeForce 把 AI 带给了全世界,现在 AI 要反过来重塑计算机图形。他称这个新技术叫「神经渲染(Neural Rendering)」,也就是 DLSS 5。
核心思路是:把传统的确定性 3D 图形(结构清晰、可精确控制)和生成式 AI 的概率性美感结合在一起。结构化资料确保画面可控,AI 负责让它看起来美到不像真的。黄仁勋说这个「结构化资料 + 生成式 AI」的融合思路,将在一个又一个产业中反复出现。
Peter Steinberger 开发了 OpenClaw,黄仁勋称它是「人类历史上最受欢迎的开源项目,几周内就超越了 Linux 三十年的成就」。
什么是 OpenClaw?用最简单的语言说:它让 AI 智慧体(Agent)能够管理资源、调用工具、读写档案、执行排程、把大问题拆成小任务分配给子智慧体——就像操作系统让人类程序跑在计算机上,OpenClaw 让 AI 智慧体跑在你的企业 IT 环境里。
黄仁勋说:「每一家 SaaS 公司都将变成 AaaS 公司。」换句话说,软件公司不再只卖工具,而是卖「能帮你做事的 AI 智慧体服务」。
但企业版有个问题:智慧体能访问敏感资料、执行程式码,这在企业环境里必须严格管控。辉达为此推出了 NeMo Claw 企业级参考设计,加入了策略引擎和隐私路由器,确保智慧体在企业内部安全落地。
黄仁勋说了一段很具体的职场预言:「未来,公司里每一位工程师都需要年度 Token 预算。他们年薪可能几万美元,我会额外给相当于薪资一半的 Token 配额,让他们的产出放大 10 倍。入职附带多少 Token 配额,已经是硅谷的新晋招聘话题。」
这不是比喻,而是他认为未来企业竞争力的衡量标准:你给工程师多少算力,就决定了他们能创造多少价值。每家企业未来既是 Token 使用者,也是 Token 生产者。
黄仁勋说数字智慧体在数字世界行动,物理 AI 则是具身化的智慧体——也就是机器人。本届 GTC 共展出 110 款机器人,几乎囊括了全球所有机器人研发企业。
自动驾驶方面,黄仁勋宣布比亚迪、现代、日产、吉利加入辉达 RoboTaxi Ready 平台,四家合计年产量 1800 万辆,加上此前的奔驰、丰田、通用,阵容庞大。辉达同时宣布与 Uber 达成合作,将在多个城市部署并接入 RoboTaxi Ready 车辆。
压轴环节,迪士尼的 Olaf 雪人机器人走上舞台,用 Jetson 芯片作为大脑、在 Omniverse 里学会走路、以 Newton 物理求解器适应真实世界。黄仁勋和 Olaf 你来我往聊了几句,最后笑说:「我以为你会更高一点。我从没见过这么矮的雪人。」
演讲尾声,黄仁勋「剧透」了下一代计算架构 Feynman,将首次让铜线与共封装光学(CPO)同时支持水平扩展。更远的想象是「Vera Rubin Space-1」——部署在太空的资料中心计算机,彻底将 AI 算力延伸到地球之外。
黄仁勋用四点总结了整场演讲:推理拐点到来、AI 工厂时代开启、OpenClaw 智慧体革命、物理 AI 规模落地。一兆美元,只是起点。