剛剛注意到一件一直在悄悄重塑整個 AI 基礎設施格局的事情,說實話,少有人在談論,真是令人驚訝。



多年來我們都迷戀於 GPU 的稀缺——那是計算發生的地方,對吧?但事情的真相是:我們一直看錯了問題。真正的瓶頸不再是推理,而是 CPU。我是認真的——當你需要協調複雜的代理工作流程、處理 API 調用、管理數據庫,以及應對超出 GPU 記憶體的大量上下文窗口時,你的處理器就變成了瓶頸,而昂貴的 GPU 就那樣閒置等待。

讓我來拆解一下市場上實際發生了什麼。AMD 的 CEO Lisa Su 基本確認了這一轉變是真實的。他們的數據中心收入在上一季度達到 54 億美元,同比增長 39%。第五代 EPYC 處理器僅此一款就佔據了超過一半的伺服器 CPU 收入,我們也看到運行在 EPYC 上的雲端實例增長超過 50%。AMD 首次佔據了超過 40% 的伺服器 CPU 市場份額。這不是偶然——而是因為每個人突然意識到,他們需要強大的 CPU 性能來規模化運行 AI 代理。

與此同時,英特爾一直在努力,但也在巧妙應對。他們剛與 Google 簽訂了多年合約,專門用於在 AI 數據中心部署 Xeon 處理器。推銷點是什麼?CPU 和專用加速器現在才是真正的性能推動者,而不僅僅是配角。甚至 Elon Musk 也委託英特爾定制芯片,用於他的 Terafab 項目——這是一個巨大的信號,表明基礎設施的方向正朝著這個方向發展。

這為什麼重要:代理工作負載本質上與聊天機器人不同。代理不僅僅是生成標記——它們涉及多步推理、API 協調、狀態管理、讀寫數據庫。去年喬治亞理工的一篇論文顯示,CPU 端的工具處理可以佔到總延遲的 50% 到 90%。GPU 已經準備就緒,但 CPU 仍在等待工具的回應。再加上現在上下文窗口已經超過百萬標記,你就需要巨大的 CPU 記憶體和帶寬來存儲那些不適合放在 GPU 上的 KV 快取。

NVIDIA 的反應很有趣。他們的 Grace CPU 只有 72 核心,而 AMD 和英特爾的典型陣容分別是 128 核或更多。但這是有意為之——他們在優化 CPU 和 GPU 之間的效率,而不是追求核心數的絕對數量。他們推崇這個理念:CPU 實際上是一個協調中心,而不是通用處理器。隨著 NVLink 互連速度達到 1.8 TB/s,CPU 可以直接存取 GPU 記憶體,這徹底改變了你管理這些巨大的 KV 快取的方式。

市場信號非常明確。美國銀行預測,到 2030 年,CPU 市場規模可能從 $27 億美元翻倍到 $60 億美元,幾乎完全由 AI 驅動。而且聽著——在亞馬遜與 OpenAI 的 $38 億美元合作中,他們明確計劃部署數千萬台 CPU。這才是新的衡量標準。我們不再只是談數十萬 GPU,而是在構建整個 CPU 協調基礎設施層。

真正的趨勢是,我們正從一個 GPU 受限的時代,轉向一個系統層面效率的時代。那些懂得如何平衡 CPU-GPU 協作、管理巨大的記憶體層級、並高效處理複雜代理工作流程的公司,才是贏家。已經不再是單一元件的比拼,而是整個系統的協同運作。如果你在 2026 年還沒考慮你的 CPU 策略,你已經落後了。
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 回覆
  • 轉發
  • 分享
回覆
請輸入回覆內容
請輸入回覆內容
暫無回覆