2026 год CES — выставка потребительской электроники, исполнительный директор NVIDIA 黄仁勳 официально объявил о полном запуске Vera Rubin, что ознаменовало важный поворот в истории развития искусственного интеллекта (AI): от начальной стадии генеративного AI, сосредоточенного на обучении моделей (Training), к эпохе агентного AI (Agentic AI) и масштабных inference.
(黄仁勳 CES 定调 2026:Vera Rubin 全面量產、AI 自駕車 Q1 上市,關鍵製程來自台積電)
В этом отчёте подробно анализируется, как этот технологический сдвиг меняет аппаратное обеспечение дата-центров, особенно уровни хранения G3.5 и платформу хранения контекстной памяти для inference (ICMS). В этом контексте четыре крупнейших мировых гиганта памяти и хранения — SK Hynix, Samsung Electronics, Micron Technology и SanDisk — сталкиваются с беспрецедентными возможностями и вызовами.
Что такое HBM, DRAM, NAND? Разбор терминов памяти
Перед основным содержанием кратко объясним эти термины:
Объяснение терминов памяти простым языком: HBM (включая HBM3E, HBM4, HBM5)
HBM — High Bandwidth Memory (высокопроизводительная память). Можно представить, что множество слоёв DRAM-чипов, сложенных как торт, соединены очень быстрыми магистралями с GPU, что обеспечивает сверхскоростную передачу данных.
HBM3E: в настоящее время основная, используется в новейших GPU, обладает высокой скоростью и низким энергопотреблением.
HBM4: следующее поколение, предназначено для более мощных GPU типа Vera Rubin, с ещё большей пропускной способностью и объёмом.
HBM5: планируемое поколение (в разработке), увеличит скорость и объём, подготовка к более крупным моделям будущего.
Рядом с GPU Vera Rubin разместится множество HBM-слоёв, что позволит GPU получать данные на сверхвысокой скорости. Основная вычислительная мощность для обучения и inference AI полностью зависит от HBM, что делает его главным компонентом в дефиците поставок AI-серверов. Производители перенаправляют значительные мощности на производство HBM, что вызывает дефицит других видов памяти. В эпоху Vera Rubin HBM — самый важный компонент среди всех деталей.
Объяснение терминов памяти простым языком: SSD
SSD — как очень большой USB-накопитель, предназначенный для долговременного хранения данных, которые не исчезают при выключении. В компьютерах файлы, видео, игры хранятся на SSD (или на традиционном жёстком диске). В эпоху Vera Rubin для того, чтобы AI-чатботы могли запоминать огромное количество текста, диалогов и знаний, Vera Rubin подключает очень много SSD, превращая их в огромную библиотеку данных. Citi оценивает, что одна Vera Rubin-сервер должна иметь около 1,152TB (то есть 1,152 терабайт) SSD для работы новой системы ICMS.
Ранее SSD были скорее вспомогательными компонентами хранилищ данных, а сейчас в ICMS и при длинных контекстах inference они становятся ключевыми.
Объяснение терминов памяти простым языком: NAND
NAND — материал, в котором реально хранится информация внутри SSD. Можно представить, что SSD — это книжный шкаф, а NAND — это отдельные страницы книг. В ICMS Vera Rubin используется множество SSD, внутри которых много NAND-чипов, поэтому AI требует огромное количество NAND. Чем больше модель AI и чем длиннее диалоговая память, тем больше NAND нужно для хранения текста и промежуточных результатов.
Объяснение терминов памяти простым языком: DRAM
DRAM — как краткосрочная память, белая доска, на которой компьютер записывает вычисляемые данные. После завершения работы (выключения) всё стирается. Скорость значительно выше SSD, но при выключении всё забывается. В Vera Rubin DRAM служит рабочей областью для CPU/GPU при обычных вычислениях. Она не хранит долгосрочные диалоги или очень большие модели, но обеспечивает работу системы. Однако, поскольку производители перенаправили мощности на HBM, предложение обычного DRAM сократилось, цены выросли, и возник дефицит.
Объяснение терминов памяти простым языком: LPDDR5X / DDR5
DDR5 — основная память для серверов и настольных ПК, быстрее DDR4.
LPDDR5X — энергоэффективная версия для мобильных устройств или высокоплотных CPU-модулей, можно представить как «энергоэкономичный DRAM».
Процессоры типа Rubin CPU требуют много LPDDR5X или DDR5 для системной памяти, для управления, планирования задач и системных операций. Они не так плотно связаны с GPU, как HBM, но являются основой стабильной работы AI-сервера. Из-за перенаправления мощностей на HBM, предложение DDR5 и LPDDR5X стало ограниченным, цены выросли.
Объяснение терминов памяти простым языком: High Bandwidth Flash (HBF)
HBF — можно представить как ускоренную NAND-память, предназначенную для того, чтобы Flash (быстрая память) не только медленно сохраняла данные, а могла работать быстрее, как оперативная память. В сравнении с обычными SSD, HBF делает акцент на «высокую пропускную способность и низкую задержку», что позволяет AI при inference быстро читать и писать большие объёмы контекста.
В Vera Rubin, как одна из ключевых технологий ICMS: размещение большого объёма KV Cache и данных длинных контекстов на этом быстром Flash, с использованием сетевых технологий (RDMA и др.), чтобы GPU мог получать доступ к KV Cache почти так же быстро, как к локальной памяти. Это концепция G3.5. — превращение Flash из простого хранилища в внешнюю память, активно участвующую в вычислительном процессе.
Рождение новых стандартов: (HBF & AI-SSD)
Чтобы NAND Flash мог справляться с высокими нагрузками, индустрия вынуждена ускорять технологические разработки, что меняет дорожные карты ведущих производителей памяти.
High Bandwidth Flash (HBF): для повышения пропускной способности SK Hynix и SanDisk совместно разрабатывают HBF — технологию 3D-стэкинга, похожую на HBM, но использующую NAND-чипы, с целью обеспечить в разы большую пропускную способность по сравнению с традиционными SSD, специально для inference AI.
AI-специальные SSD (AI-NP): SK Hynix активно сотрудничает с NVIDIA в разработке SSD с показателем 1 миллиарда IOPS. Эта производительность в 100 раз превышает существующие топовые SSD, предназначена для удовлетворения экстремальных требований ICMS к скорости случайного чтения, чтобы данные могли мгновенно подаваться GPU.
Уровень G3.5 ICMS — ключевой мост, соединяющий цепочку AI-ценностей от дорогого HBM к NAND Flash. Он решает проблему необходимости бесконечной памяти для сложных задач AI Agents, превращая NAND из циклического компонента хранения в неотъемлемую часть инфраструктуры AI-вычислений.
Эффект хранения Vera Rubin NVL72
По данным Citi и других аналитических агентств, потребность ICMS в NAND в архитектуре Vera Rubin взрывная. Помимо стандартных хранилищ, ICMS на базе BlueField-4 добавляет примерно 16TB высокоскоростной NAND-памяти к каждому GPU. Для полностью укомплектованного NVL72 с 72 GPU это означает дополнительный спрос на NAND в размере около 1,152TB (примерно 1,15PB).
Если в 2026 году по всему миру будет развернуто 100 000 таких шкафов, это создаст дополнительный спрос на NAND более чем 115 Exabytes (EB), что примерно составляет 12% от общего мирового предложения NAND в 2025 году. Такой спрос не только огромен, но и предъявляет очень высокие требования к производительности, что вызывает панику на рынке корпоративных SSD и запускает сверхцикл, управляемый продавцами.
Эта революция в архитектуре подтолкнула рынок памяти к «тройному сверхциклу» (рост цен на DRAM, дефицит NAND, распродажа HBM). Ниже — глубокий анализ конкуренции четырёх крупнейших производителей:
SK Hynix (SK Hynix): архитектор AI-архитектур
Позиция
Абсолютный лидер рынка HBM (доля рынка HBM3/3E в 5–60%), ключевой союзник NVIDIA.
Преимущества
Монополия на HBM4: аналитики оценивают, что более 70% начальных заказов HBM4 для платформы Vera Rubin приходится на SK Hynix, а мощность уже объявлена полностью распроданной на 2026 год.
Стандартизация HBF: совместно с SanDisk продвигает High Bandwidth Flash (HBF), пытаясь поднять NAND до уровня подготовленной памяти.
AI-NP SSD: разрабатывает сверхвысокопроизводительные SSD с 1 миллиардом IOPS, специально для ICMS.
Недостатки
SK hynix уже сталкивается с циклом сверхраспродажи HBM3E / HBM4, почти полностью загружен, и в 2026 году сам признаёт, что возможны ценовые коррекции и усиление конкуренции. Многие аналитики предупреждают, что после 2026 года, при расширении производства HBM и снижении цен, SK hynix — наиболее зависимый от HBM производитель, с наибольшими рисками снижения прибыли.
Samsung (Samsung): ответ империи и преимущество по мощностям
Позиция
Поставщик комплексных решений, гигант по мощностям.
Преимущества
Turnkey HBM4: поставляет «память + логика + упаковка» в одном пакете, очень привлекателен для заказчиков вроде Google и Amazon, разрабатывающих собственные чипы.
Прямое преимущество G3.5: как крупнейший в мире производитель NAND, обладает мощными возможностями по поставкам корпоративных SSD и CXL-памяти (PBSSD), способных одновременно удовлетворить потребности в HBM и огромных хранилищах.
Недостатки
Технология HBM стартовала позже, требует восстановления доверия клиентов в эпоху Rubin; NAND, хоть и в наличии, не обладает такой ценовой властью, как HBM.
Micron (Micron): бенефициар эффективности и геополитики
Позиция
Выбор США для AI, движется двумя колесами — HBM и NAND.
Преимущества
Двойной выигрыш: единственный производитель с мощностями HBM3E/4 и передовыми корпоративными SSD. Может одновременно получать выгоду от памяти Rubin GPU и уровня хранения ICMS.
Лидер по энергоэффективности: продукты HBM заявляют о 30% меньшем энергопотреблении по сравнению с конкурентами, что соответствует высоким требованиям AI-центров по TCO.
Геополитические преимущества: как единственный американский производитель, является предпочтительным выбором для североамериканских облачных AI-сервисов.
Недостатки
Маленький общий объём производства по сравнению с корейскими гигантами, вынужден поддерживать высокую маржу за счёт технологической премии, не может участвовать в ценовых войнах.
SanDisk: переоценка ценности хранения и вычислений
Позиция
Наиболее крупный чистый получатель уровня G3.5, трансформирующийся в компанию инфраструктуры AI.
Преимущества
Самая чистая акция по концепции G3.5: потребность в NAND 1,152TB для каждой системы Vera Rubin — это чистый прирост. Их корпоративный SSD Stargate уже сертифицирован крупными клиентами.
Переход к бизнесу: после отделения от Western Digital полностью сосредоточился на дата-центрах (рост доходов на 26% в год), избавившись от потребительских активов.
Ценовая экспансия: в условиях дефицита поставок корпоративный NAND может подорожать вдвое, что даёт SanDisk очень высокую прибыльность.
Недостатки
Отсутствие собственных фабрик, работает по модели fabless, зависит от контрактного производства, слабая способность к расширению мощностей по сравнению с IDM-производителями.
Прогноз на 2026 год: закрепление рынка памяти
Nomura и Citi едины в прогнозах, что к 2026 году ожидается серьёзный дисбаланс спроса и предложения. Доходы DRAM могут вырасти на 51% в год, а контрактные цены на NAND-чипы — удвоиться. Из-за дефицита чистых комнат (Cleanroom) и потребления HBM в три раза больше, чем DRAM, дефицит сохранится до середины 2027 года. В этой индустрии стоимостью в 10 триллионов долларов, появление Vera Rubin и платформы ICMS превратило производителей памяти из второстепенных игроков в главных.
В период 2026–2028 годов, кроме ограничений расширения HBM и давления ICMS на корпоративные SSD, возможен ещё один ускоритель: коммерциализация HBF (высокопроизводительной NAND-стэкинг-памяти). Совместное мнение академического и промышленного сообществ — поскольку HBF частично использует технологии и конструкции, накопленные в эпоху HBM, темпы внедрения могут быть быстрее, чем у HBM, и к 2027 году начнётся интеграция в основные платформы ускорения.
Эта статья «NVIDIA Vera Rubin вызывает взрыв спроса на память: анализ преимуществ и недостатков SK Hynix, Samsung, Micron, SanDisk» впервые опубликована на Chain News ABMedia.