Nvidia 将在2027年前向亚马逊云服务(AWS)提供大量GPU,随着云服务提供商加快其AI基础设施建设并满足不断增长的需求。
AWS 本周早些时候宣布,计划部署约100万台Nvidia GPU,作为其扩展AI基础设施建设的一部分。Nvidia 一位高管在周四向 路透社 证实,预计这一部署将持续到2027年底。
从今年开始,AWS将在其全球云区域推出此计划,并将与Nvidia在网络和其他基础设施方面的合作扩大,以构建“能够自主推理、规划和行动的系统”,AWS 表示,强调其在智能代理AI系统方面的工作。
AWS 继续开发用于训练和推理的AI芯片。这一合作表明,需求可能正在AI堆栈的不同层面发生转变,同时,越来越多的活动似乎与在实时服务中运行模型有关。
此交易发生之际,美国检方正在追查一宗指控Nvidia芯片被走私到中国的案件,重新审视该公司的全球供应和控制措施。
自2022年以来,Nvidia的最先进芯片一直受到严格控制,作为美国限制中国在高端计算和AI方面进展的更广泛战略的一部分。
本周的这一发展可能会进一步扩大这一差距。
节奏的变化
观察人士表示,这笔交易的结构提供了关于需求增长方向和基础设施变化速度的线索。
“Nvidia 正在成为云服务提供商的基础设施层,而不仅仅是他们的芯片供应商,” ZenGen Labs 战略与增长工作室的联合创始人 Dermot McGrath 在 Decrypt 中表示。
这笔交易中的芯片旨在支持大规模运行AI模型,重点是降低使用成本,McGrath 指出,推理现在大约占AI计算的三分之二,而2023年约为三分之一。
他补充说,面向推理的芯片市场预计到2026年将超过500亿美元,引用德勤的估算。
McGrath 解释说,AWS 可以在同一系统中同时使用Nvidia和自家芯片,为客户提供比竞争对手更丰富的选择,而后者通常封闭其技术,这种灵活性“是一个差异化因素”。
“现在,Nvidia 正在做同样的事情,只不过是在网络和机架架构层面,而不是在编程模型上,”他说。
推理芯片是设计用来实时运行训练好的AI模型的处理器,而不需要重新训练。
推理需求“推动了长期的计算能力承诺”,并促使云服务提供商与芯片制造商之间的关系更加紧密,基础设施公司Gather Beyond的政策策略师兼创始人 Pichapen Prateepavanich 在 Decrypt 中表示。
“云服务提供商希望在长远来看保持独立,但在短期内,他们需要Nvidia保持竞争力,”她说,并指出这创造了一种合作与竞争同时发生的动态。
不过,AI基础设施的控制权也在发生变化。
“这是一场‘基础设施翻转’,” AI主导投资基金Boardy Ventures的交易合伙人 Berna Misa 在 Decrypt 中表示。
她说,Nvidia 正在将其完整的技术堆栈嵌入到AWS的数据中心中,这些数据中心多年来一直使用专有设备。
但她解释说,虽然AWS正在开发自己的AI芯片,这“并不会改变局面”,因为推理依赖于堆栈中的多个组件,而Nvidia 提供了大部分。
“当你深入客户的技术堆栈时,切换成本和由此产生的上下文层就成为了护城河,”她说。