Nvidia Vera Rubin memicu permintaan memori: analisis kelebihan dan kekurangan SK Hynix, Samsung, Micron, SanDisk

ChainNewsAbmedia
STG-2,06%

2026 年 CES Consumer Electronics Show, CEO NVIDIA黃仁勳正式宣布Vera Rubin投入量產,標誌著人工智慧(AI)發展史上的一個關鍵轉折點:從以模型訓練(Training)為核心的生成式 AI 初期,正式邁入以代理型 AI(Agentic AI)與大規模推論(Inference)為主導的時代。

(黃仁勳 CES 定調 2026:Vera Rubin 全面量產、AI 自駕車 Q1 上市,關鍵製程來自台積電)

本報告將深入剖析這一技術轉折如何重塑資料中心的硬體層級,特別是 G3.5 儲存層級與推論上下文記憶體儲存平台(ICMS)。在此背景下,全球四大記憶體與儲存巨頭:SK海力士(SK Hynix)、三星電子(Samsung Electronics)、美光科技(Micron Technology)與 SanDisk 正面臨著前所未有的機遇與挑戰。

HBM、DRAM、NAND 是什麼?記憶體名詞解析

在進入正式內容前,先用淺顯的描述來進行名詞補充:

白話文解釋記憶體名詞:HBM(包含 HBM3E、HBM4、HBM5)

HBM 全名 High Bandwidth Memory (高頻寬記憶體)。可以想成:把很多層 DRAM 晶片像千層蛋糕一樣疊起來,再用非常多又粗的高速公路接到 GPU,傳資料超快。

HBM3E:目前主力,用在最新一代 GPU 上,速度快、功耗也壓得不錯。

HBM4:下一代,給像 Vera Rubin 這種更兇猛的 GPU 用,頻寬更高、容量更大。

HBM5:再下一代(規劃中),會再拉高速度與容量,對未來更大模型準備。

Rubin GPU 旁邊會塞很多顆 HBM 堆疊,讓 GPU 能以超高速拿資料。AI 訓練、推論的核心算力全靠 HBM 供應資料,是這波 AI 伺服器供應緊缺的最大明星,廠商把大量產能都轉去做 HBM,導致其他記憶體供應吃緊。在 Vera Rubin 時代,HBM 是所有零件中最關鍵的元件。

白話文解釋記憶體名詞:SSD

SSD 就像一個超大的 USB 隨身碟,用來長期存資料,不會因為關機就忘記。電腦裡放檔案、影片、遊戲,就是存在 SSD(或傳統硬碟)。在 Vera Rubin 時代為了讓 AI 聊天機器人記住很多很多文字、對話歷史和知識,Vera Rubin 要接上非常多 SSD,當作超大資料圖書館。Citi 估算,一台 Vera Rubin 伺服器要接大約 1,152TB(也就是 1,152 個 1TB)這麼多的 SSD,才能讓新的 ICMS 系統運作。

以前 SSD 比較像資料倉庫配角,現在在 ICMS/長上下文推論裡變成很重要的角色。

白話文解釋記憶體名詞:NAND

SSD 裡面真正存資料的材料叫 NAND 快閃記憶體。可以想成:SSD 是書櫃,NAND 是一塊一塊的書本頁面。Vera Rubin 的 ICMS 要用很多 SSD,而 SSD 裡就是堆滿 NAND 晶片,所以 AI 要的是很多很多 NAND。當 AI 模型越來越大、對話記憶越來越長,就需要更多 NAND 來放這些文字和中間結果。

白話文解釋記憶體名詞:DRAM

DRAM 就像短期記憶白板,電腦運算時先把要算的東西寫在 DRAM,上完課(關機)白板就擦掉。速度比 SSD 快很多,但一關機就全忘。在 Vera Rubin 給 CPU / GPU 當一般運算時的工作區。不直接存很久的對話或超大模型,但負責支撐系統運作。不過因為廠商把產能移去做 HBM,結果一般 DRAM 供應變少,價格猛漲、甚至缺貨。

白話文解釋記憶體名詞:LPDDR5X / DDR5

DDR5:伺服器與桌機裡常用的主記憶體,比舊的 DDR4 更快。

LPDDR5X:給行動裝置、或者高密度 CPU 模組用的省電版本,可以想像是「省電型的 DRAM」。

Rubin CPU 這種處理器,需要很多 LPDDR5X 或 DDR5 當系統記憶體,處理控制、排程、系統任務。它們不會像 HBM 那樣直接綁在 GPU 上,但也是整個 AI 伺服器穩定運作的基礎。由於產能被 HBM 吸走,一般 DDR5 / LPDDR5X 供應變緊、價格上升。

白話文解釋記憶體名詞:High Bandwidth Flash(HBF)

可以把 HBF 想成速度被強化過的 NAND,目標是讓 Flash(快閃記憶體)不再只是慢慢存資料,而是變得更快、更像記憶體來用。比起一般 SSD,它更強調「高吞吐量、低延遲」,好讓 AI 在推論時可以比較快地讀寫大量上下文。

在 Vera Rubin 裡當 ICMS 的核心之一:把大量 KV Cache、長上下文資料放在這種高速 Flash 上,用網路(RDMA 等)讓 GPU 以接近內存的速度取用。這就是 G3.5 層概念。把 Flash 從只有存檔提升成快得可以參與運算流程的外部記憶。

Vera Rubin世代:硬體架構的根本性重構

極致協同設計(Extreme Co-design)與機櫃級運算

在 CES 2026上,NVIDIA 執行長黃仁勳的演講揭示了一個核心理念:在 Rubin 世代,運算的單位不再是單個 GPU 或伺服器,而是整個資料中心機櫃。Rubin 平台由六款核心晶片組成:Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU 以及 Spectrum-6 Ethernet Switch 。

這種被稱為極致協同設計的策略,旨在消除晶片間的通訊瓶頸,將 Vera Rubin NVL72 機櫃打造成一個擁有 3.6 ExaFLOPS 推論算力與 75TB 高速記憶體的單一巨型電腦 。

這種架構的演進並非單純的效能堆疊,而是為了應對 AI 工作負載的本質改變。從 Blackwell 到 Rubin,AI 模型已從單純的問答機器演化為能夠執行多步驟推理、長期記憶檢索與工具使用的智慧代理(Agents)。這類工作負載要求硬體不僅要具備高吞吐量,還必須具備極低的延遲與海量的上下文(Context)保留能力 。

收購 Groq 與推論翻轉:防禦性吞併與 ASIC 時代的開端

NVIDIA 在 2025 年底以 200 億美元人才併購與技術授權的形式吸納 AI 晶片新創公司 Groq,Groq 的核心技術 LPU(語言處理單元)架構,本質上是一種針對 Transformer 模型極度優化的 ASIC。與依賴 HBM(高頻寬記憶體)的傳統 GPU 不同,Groq 採用片上 SRAM(靜態隨機存取記憶體)與編譯器優先的設計。

在即時互動場景中,這種架構能提供比傳統 GPU 快 10 倍的代幣生成速度,且能效高出 10 倍 。NVIDIA 想補齊低延遲推論(Groq LPU 擅長)與 CUDA 生態結合。Google (TPU)、Amazon (Inferentia) 等雲端巨頭早已透過自研 ASIC 證明了專用晶片在推論成本上的巨大優勢,NVIDIA 必須透過 Groq 的技術來防禦。

上下文牆(The Context Wall)難題

在長上下文(Long-context)推論中,Key-Value (KV) Cache 是 AI 模型記住對話歷史的機制。隨著上下文窗口擴展至百萬級Token,KV Cache 的體積呈線性增長,迅速耗盡昂貴且容量有限的 GPU HBM (G1)。當 HBM 滿載,數據會被逐出至系統 DRAM (G2) 或本地 SSD (G3)。這導致了 KV Cache 危機:GPU 經常為了等待歷史數據而空轉。

G3.5 層級:推論上下文記憶體儲存平台(ICMS)

在 Vera Rubin 架構中,對記憶體產業最具顛覆性、影響最深遠的變革,是 G3.5 記憶體層級,即推論上下文記憶體儲存平台 (ICMS, Inference Context Memory Storage) 的誕生。這項創新不僅是架構的升級,更標誌著上下文感知(Context-Aware)運算時代的來臨。

ICMS 利用 BlueField-4 DPU 與 Spectrum-X 乙太網路,在機櫃(Pod)層級建立了一個共享的、基於快閃記憶體(Flash)的緩衝池。這個 G3.5 層級位於 DRAM 與傳統儲存之間,透過 RDMA(遠端直接記憶體存取)技術,讓 GPU 能以接近本地記憶體的速度存取遠端 Flash 中的 KV Cache 1。

強制催生新技術標準 (HBF & AI-SSD)

為了讓 NAND Flash 能夠勝任準記憶體的高強度工作,產業被迫加速技術迭代,這改變了主要記憶體廠的技術路徑圖。

High Bandwidth Flash (HBF): 為了追求頻寬,SK 海力士與 SanDisk 合作開發 HBF。這是一種類似 HBM 的 3D 堆疊技術,但使用 NAND 晶圓,旨在提供比傳統 SSD 快數倍的吞吐量,專門服務於 AI 推論 。

AI 專用 SSD (AI-NP): SK 海力士正與 NVIDIA 緊密合作,開發能達到 1 億 IOPS 的 AI-NP SSD。這種性能是現有頂級 SSD 的 100 倍,專門為了滿足 ICMS 對隨機讀取速度的極端苛求,確保數據能即時餵給 GPU 。

G3.5 ICMS 層級是將 AI 價值鏈從昂貴的 HBM 向下延伸至 NAND Flash 的關鍵橋樑。它解決了 AI Agent 需要無限記憶來處理複雜任務的痛點,將 NAND 產業從週期性的儲存商品,轉變為 AI 運算基礎設施中不可或缺的核心戰略資源。

Rubin NVL72 的儲存通膨效應

根據 Citi 與其他市場分析機構的拆解,Vera Rubin 架構中 ICMS 對 NAND 的需求是爆炸性的。除了標準的儲存外,BlueField-4 驅動的 ICMS 為每個 GPU 額外增加了約 16TB 的高速 NAND 快閃記憶體。對於一個滿載 72 顆 GPU 的 NVL72 機櫃而言,這意味著額外增加了 1,152TB(約1.15PB)的 NAND 需求 。

如果 2026 年全球部署 10 萬個此類機櫃,將產生超過 115 Exabytes (EB) 的額外 NAND 需求,約佔 2025 年全球 NAND 總供應量的 12% 。這種需求不僅量大,且對性能要求極高,這直接導致了市場對企業級 SSD 供應短缺的恐慌,開啟一個由賣方主導的超級循環 。

這場架構革命將記憶體市場推向了「三重超級循環」(DRAM 價漲、NAND 缺貨、HBM 售罄)。以下是四大廠的深度競爭力分析:

SK 海力士 (SK Hynix):AI 架構的設計師

地位

HBM 市場絕對霸主 (HBM3/3E 時代市占率 5~60%),NVIDIA 核心盟友。

優勢

HBM4 壟斷:券商推估囊括 Vera Rubin 平台 HBM4 初期訂單的 70% 以上,且產能已宣佈 2026 年全數售罄。

HBF 標準制定:與 SanDisk 合作推動 High Bandwidth Flash (HBF),試圖將 NAND 提升至準記憶體層級。

AI-NP SSD:開發專為 ICMS 設計的 1 億 IOPS 超高性能 SSD。

劣勢

SK hynix 現在吃到 AI 超級循環,HBM3E / HBM4 幾乎滿載,2026 年自己也在展望裡承認:後面可能面臨價格修正與競爭加劇風險。多家機構點名一旦 2026 之後 HBM 供給擴張、價格轉跌,對 HBM 依賴最高的就是 SK hynix,獲利下修風險最大。

三星電子 (Samsung):帝國的反擊與產能優勢

地位

全方位解決方案提供者,產能怪獸。

優勢

Turnkey HBM4:提供「記憶體+邏輯代工+封裝」一站式服務的廠商,對 Google、Amazon 等自研晶片客戶極具吸引力。

G3.5 直接受惠:作為全球最大 NAND 製造商,擁有最強大的企業級 SSD 與 CXL 記憶體(PBSSD)供應能力,能同時滿足 HBM 與海量存儲需求。

劣勢

HBM 技術起步較晚,需在 Rubin 世代重建客戶信心;NAND 雖有量但定價權不如 HBM 強勢。

美光科技 (Micron):效率與地緣政治受益者

地位

美國主權 AI 首選,HBM+NAND 雙輪驅動。

優勢

雙重受惠:唯一同時擁有 HBM3E/4 產能與先進企業級 SSD 的美國廠商。能同時吃到 Rubin GPU 記憶體與 ICMS 儲存層的紅利。

能效領先:HBM 產品宣稱比對手節能 30%,契合 AI 資料中心對 TCO 的極致要求。

地緣政治紅利:作為唯一美國本土製造商,是北美主權 AI 雲端的首選。

劣勢

總產能規模小於韓系大廠,需依賴技術溢價維持高毛利,無法打價格戰。

SanDisk:從儲存到運算的價值重估

地位

G3.5 層級的最大純粹受惠者,轉型 AI 基礎設施股。

優勢

最純粹的 G3.5 概念股:每套 Rubin 系統 1,152TB 的 NAND 需求是 SanDisk 的純增量。其 Stargate 企業級 SSD 已獲超大規模客戶認證。

業務轉型:從 Western Digital 分拆後,戰略完全轉向數據中心(營收年增26%),擺脫消費級包袱。

定價爆發力:在供應短缺下,企業級 NAND 價格可能還會翻倍,SanDisk 擁有極高利潤彈性。

劣勢

缺乏自有晶圓廠,走 Fabless 模式,依賴代工,產能鎖定能力弱於 IDM 廠。

2026 前瞻分析:記憶體賣方市場確立

Nomura 與 Citi 一致預測,2026 年將面臨嚴重供需失衡。DRAM 營收預計年增 51%,NAND 晶圓合約價可能翻倍。由於潔淨室(Cleanroom)短缺及 HBM 對晶圓產能的消耗(HBM 消耗量是 DRAM 的 3 倍),供應緊張將持續至 2027 年中。在這場價值 10 兆美元的產業現代化浪潮中,Vera Rubin 與 ICMS 平台的出現,使記憶體廠商從配角躍升為主角。

展望 2026~2028 年,記憶體賣方市場除了來自 HBM 擴產受限與 ICMS 對企業級 SSD 的擠壓,還可能出現另一個加速器:HBF(NAND 堆疊式高頻寬快閃)商用化時間表前移。學界與產業界近期的共識是,由於 HBF 在製程與設計上可部分沿用 HBM 時代累積的堆疊與封裝基礎,導入節奏有望較 HBM 更快,並在 2027 年前後開始進入主要加速器平台的整合期。

這篇文章 輝達 Vera Rubin 引爆記憶體需求:解析 SK 海力士、三星、美光、SanDisk 優缺點 最早出現於 鏈新聞 ABMedia。

Lihat Asli
Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.
Komentar
0/400
Tidak ada komentar