根據 Bloomberg 深度報導與 Google 官方公告,Google 於 4 月 22 日正式擴張自研 AI 晶片陣容:推理專用 Ironwood(第七代 TPU)在 Google Cloud 全面供應,並同步啟動與 Broadcom、MediaTek、Marvell、Intel 四家夥伴的下世代設計合作,目標是以客製晶片供應鏈正面挑戰 Nvidia 在 AI 算力市場的主導地位。
Ironwood:第七代 TPU,首度專為推理設計
Ironwood 是 Google TPU 系列第七代產品,也是首款「訓練推理分流」策略下的推理專用晶片。Google 揭露的規格:單晶片尖峰效能為 TPU v5p 的 10 倍,配置 192GB HBM3E 記憶體、記憶體頻寬達 7.2 TB/s,單個 superpod 可擴展至 9,216 顆液冷 Ironwood,合計 FP8 運算量達 42.5 exaflops。
Google 官方表示 Ironwood 已「全面開放 Google Cloud 客戶使用」,今年出貨量預計達「百萬顆」等級。Anthropic 已承諾採用多達 100 萬顆 Ironwood TPU,Meta 則簽署「數十億美元多年合約」透過 Google Cloud 使用 TPU。
四家夥伴分工:訓練歸 Broadcom、推理歸 MediaTek
Google 下世代晶片供應鏈明確分工如下:
夥伴 代號 角色 特色 Broadcom Sunfish 訓練專用 延續既有 TPU 合作關係,主導大型訓練節點 MediaTek(聯發科) Zebrafish 推理專用 宣稱比 Broadcom 方案成本低 20–30% Marvell 談判中 記憶體處理單元(MPU)+ 額外推理 TPU 為 HBM 與 inference 優化 Intel 未公開 參與設計 強化供應鏈分散
這是 AI 產業中首見的「四家夥伴並行、訓練推理明確分工」模式。Google 透過分散 IP 風險與競爭議價,避開 Nvidia 單一供應商的結構依賴。路線圖延伸至 2027 年底的 TPU v8,將於台積電 2nm 製程生產。
策略意義:挑戰 Nvidia 的不是單晶片,而是供應鏈
過去三年 AI 晶片市場由 Nvidia 近乎壟斷,CUDA 軟體生態與 H100/GB200 晶片構成雙重護城河。Google 的 Ironwood 與四夥伴策略並非以「單點規格超越」為目標,而是複製 Nvidia 在產業中的「標準化平台 + 多客戶採購」邏輯——讓 TPU 不只是 Google 自用,而是可被 Anthropic、Meta 等主要 AI 公司共用的商業化算力選項。
Anthropic 承諾 100 萬顆 TPU 的意義尤其關鍵:這是 Nvidia 以外單家 AI 公司最大算力承諾,與 Anthropic 4/20 與 Amazon 達成 5GW/1000 億 AWS 承諾形成互補——一邊綁定 AWS Trainium、一邊綁定 Google TPU,Anthropic 以「雙客製晶片」策略降低 Nvidia 依賴。Meta 則是首次公開將 TPU 納入自家 AI 訓練/推理工作負載,形成另一道訊號。
市場反應與產業連動
聯發科在此次揭露前已被視為「Google 客製晶片受益者」,Zebrafish 代號的曝光是首度將聯發科直接列為 Google 推理晶片設計夥伴。這延伸近期 AMD × GlobalFoundries 矽光子、Marvell × Google MPU 的「非 Nvidia 晶片聯盟」敘事線。
Nvidia 於同期仍有 GB200 與下世代 Rubin 平台支撐,但客戶端的算力組合正從「全 Nvidia」走向「Nvidia + TPU + AWS Trainium」的三軌並行。這對台積電 2nm 產能也意味著 Google、Nvidia、Apple、Amazon 四大客戶都在排隊,晶圓代工供應議價力持續上升。
這篇文章 Google Ironwood TPU:10 倍效能 + 四家夥伴對抗 Nvidia 最早出現於 鏈新聞 ABMedia。
相關文章