Дженсен Хуанг сделал восемь крупных анонсов всего за 1,5 часа, обозначив путь NVIDIA к доминированию в области вывода и робототехники

5 января на CES 2026 года генеральный директор NVIDIA Jensen Huang вышел на сцену в своей фирменной кожаной куртке на 1,5 часа, сжато представив самую амбициозную стратегию компании в эпоху ИИ в одной мощной презентации. Из этого краткого окна вышло восемь крупных анонсов, которые изменили конкурентный ландшафт — от обучения моделей ИИ к тому, что NVIDIA считает следующей границей: экономически эффективное выполнение inference в масштабах и физический ИИ, интегрированный во весь реальный мир.

Подтекст этих объявлений отражает фундаментальный сдвиг на рынке. По мере роста размеров моделей в 10 раз ежегодно и увеличения количества токенов inference в 5 раз в год — при этом стоимость за токен падает в 10 раз — индустрия вычислений сталкивается с новым ограничением: inference стал узким местом, а не обучение. Вся архитектура Vera Rubin NVIDIA, анонсированная за 1,5 часа до этого, построена именно вокруг этой реальности.

Шесть индивидуальных чипов в одном стойке: переосмысление плотности и производительности суперкомпьютера Vera Rubin AI

В основе аппаратного обеспечения лежит NVIDIA Vera Rubin POD — специально созданный для ИИ суперкомпьютер, объединяющий шесть собственных чипов, работающих в синхроне. Эта концепция совместного проектирования означает отход от модульного подхода, который доминировал в предыдущих поколениях. Флагманская система Vera Rubin NVL72 содержит 2 триллиона транзисторов в одной стойке, обеспечивая 3,6 EFLOPS inference на NVFP4 — в пять раз больше, чем предыдущая генерация Blackwell.

Архитектура разбивается на следующие компоненты:

  • Vera CPU: основан на 88 собственных ядер Olympus с 176 потоками технологии NVIDIA Space Multithreading. Поддерживает пропускную способность NVLink-C2C 1,8 ТБ/с, обеспечивая бесшовную объединённую память CPU и GPU. Общая память системы достигает 1,5 ТБ — в три раза больше, чем у CPU Grace — и имеет пропускную способность 1,2 ТБ/с LPDDR5X. CPU удваивает производительность обработки данных и вводит конфиденциальные вычисления на уровне стойки, первый настоящий TEE, охватывающий как CPU, так и GPU.

  • Rubin GPU: центральный элемент с трансформерным движком, позволяющим inference NVFP4 на 50 PFLOPS (5x Blackwell) и обучение NVFP4 на 35 PFLOPS (3.5x Blackwell). Поддерживает память HBM4 с пропускной способностью 22 ТБ/с — в 2,8 раза больше предыдущего поколения — что критично для работы с крупными моделями Mixture-of-Experts (MoE). Совместимость с предыдущими системами Blackwell обеспечивает плавный переход.

  • NVLink 6 Switch: скорость по линиям увеличена до 400 Гбит/с, достигая 3,6 ТБ/с полной межсоединительной пропускной способности на GPU (2x предыдущего поколения). Общая пропускная способность межсистемных соединений достигает 28,8 ТБ/с, а вычисления внутри сети — 14,4 TFLOPS при FP8. Система работает на 100% с жидкостным охлаждением, исключая тепловые ограничения.

  • ConnectX-9 SuperNIC: обеспечивает пропускную способность 1,6 Тбит/с на GPU, полностью программируемый и управляемый через программное обеспечение для масштабных задач ИИ.

  • BlueField-4 DPU: умный NIC со скоростью 800 Гбит/с, оснащённый 64-ядерным CPU Grace и ConnectX-9. Выполняет задачи сети и хранения, повышая безопасность — обеспечивает в 6 раз больше вычислительной мощности и в 3 раза больше пропускной способности памяти по сравнению с предыдущим поколением, а доступ к GPU и хранилищу в 2 раза быстрее.

  • Spectrum-X 102.4T CPO: оптический коммутатор с интегрированными оптическими компонентами SerDes на 200 Гбит/с, обеспечивающий 102,4 Тбит/с на ASIC. Конфигурация с 512 портами высокой плотности (800 Гбит/с на порт) позволяет всей системе работать как единое целое, а не как разрозненные компоненты.

Время сборки сократилось с двух часов до пяти минут, а окна обслуживания — полностью устранены благодаря архитектуре NVLink Switch без простоев. Модульный дизайн системы, теперь без кабелей и вентиляторов на уровне вычислительных модулей, позволяет обслуживать её в 18 раз быстрее, чем предыдущие поколения. Эти операционные преимущества напрямую снижают TCO дата-центров и повышают их доступность.

Три специализированных платформы против реального ограничения inference: хранение контекста и пропускная способность

Хотя вычислительная мощность выросла в 5 раз, inference сталкивается с другой проблемой — которую одних GPU-циков решить нельзя. NVIDIA представила три интегрированных продукта для устранения этого разрыва, каждый из которых нацелен на конкретное узкое место в мире масштабируемого inference.

Spectrum-X Ethernet Co-Packaged Optics: сеть как критическая инфраструктура

Традиционные сетевые коммутаторы потребляют огромное количество энергии и создают задержки, подрывающие производительность inference. Spectrum-X Ethernet CPO, основанный на архитектуре Spectrum-X с двухчиповой схемой, достигает в 5 раз большую энергоэффективность, в 10 раз — надежность и в 5 раз — время безотказной работы приложений. Система с 512 портами работает на 800 Гбит/с на порт, суммарная пропускная способность достигает 102,4 Тбит/с.

Это напрямую влияет на: больше токенов в обработке за день — меньшая стоимость за токен, что в конечном итоге снижает TCO дата-центра в масштабах, которые NVIDIA считает трансформационными для гиперскейлеров.

Inference Context Memory Storage Platform: делая KV-кэши практическими в масштабах

Работы inference для Agentic AI — диалоги с несколькими поворотами, Retrieval-Augmented Generation (RAG) и многошаговое рассуждение — требуют постоянного хранения контекста. Современные системы сталкиваются с парадоксом: память GPU быстра, но ограничена; сетевое хранилище — обильно, но слишком медленно для краткосрочного доступа к контексту. NVIDIA Inference Context Memory Storage Platform устраняет этот разрыв, рассматривая контекст как перворазрядный тип данных внутри инфраструктуры.

Ускоренная BlueField-4 и Spectrum-X соединяют это новое хранилище с GPU-кластером через специализированные NVLink-интерконнекты. Вместо повторного вычисления ключ-значение кешей на каждом шаге inference, система хранит их в оптимизированных хранилищах, достигая в 5 раз лучшей производительности inference и в 5 раз меньших энергозатрат для задач с большим объемом контекста. Для AI-систем, эволюционирующих от Stateless чатботов к Stateful-агентам, способным рассуждать на миллионах токенов, это архитектурное дополнение снимает фундаментальное ограничение масштабирования.

NVIDIA сотрудничает с партнёрами по хранению данных для интеграции этой платформы прямо в развертывания на базе Rubin, позиционируя её как ключевой элемент готовой инфраструктуры ИИ, а не как дополнение.

DGX SuperPOD (Vera Rubin Edition): фабричный проект для оптимального по стоимости inference

DGX SuperPOD — эталонная архитектура NVIDIA для крупномасштабных развертываний inference. Построен на восьми системах DGX Vera Rubin NVL72, использует NVLink 6 для вертикального расширения сети, Spectrum-X Ethernet для горизонтального масштабирования и Inference Context Memory Storage Platform для организации контекста. Весь стек управляется программным обеспечением NVIDIA Mission Control.

Результат: по сравнению с инфраструктурой эпохи Blackwell, обучение моделей MoE аналогичного масштаба требует в 4 раза меньше GPU, а стоимость токена для крупного inference MoE — в 10 раз меньше. Для облачных провайдеров и предприятий это — мощный экономический рычаг: те же задачи обрабатываются на значительно меньшем числе GPU, что ведет к многомиллиардным сбережениям на инфраструктуре при масштабировании.

Nemotron, Blueprints и открытая платформа ускорения: создание мульти-модельных, мульти-облачных систем ИИ

Параллельно с анонсами аппаратных решений NVIDIA объявила о самом масштабном расширении открытого исходного кода. В 2025 году компания внесла 650 моделей с открытым исходным кодом и 250 открытых датасетов в Hugging Face, став крупнейшим вкладчиком платформы. Основные метрики показывают, что использование open-source моделей выросло в 20 раз за последний год и составляет примерно 25% всех токенов inference.

Компания расширяет семейство Nemotron новыми моделями: агентными RAG-системами, специализированными моделями безопасности и речевыми моделями для мультимодальных приложений ИИ. Важно, что NVIDIA поставляет их не как изолированные модели, а как компоненты внутри более широкой системы под названием Blueprints.

Blueprints воплощает ключевой архитектурный инсайт, который Jensen Huang почерпнул, наблюдая за Perplexity и платформами ранней стадии AI-агентов: производственный агентный ИИ по своей природе мульти-модельный, мульти-облачный и гибридный. Этот фреймворк позволяет разработчикам:

  • динамически маршрутизировать задачи: локальные приватные модели для задержко-чувствительных задач, облачные модели передового уровня для новых возможностей
  • бесшовно вызывать внешние API и инструменты (email системы, интерфейсы управления роботами, календари)
  • объединять мультимодальные входы — текст, голос, изображения, датчики роботов — в единые представления

Эти возможности, когда-то казавшиеся научной фантастикой, теперь доступны разработчикам через SaaS-интеграцию NVIDIA с Blueprints. Аналогичные решения появляются на корпоративных платформах, таких как ServiceNow и Snowflake, что свидетельствует о сдвиге в сторону системного мышления в корпоративном ИИ.

Стратегический вывод: NVIDIA одновременно демократизирует доступ к передовым возможностям ИИ и закрепляет свои программные экосистемы как де-факто стандарт для построения AI-агентов.

Физический ИИ: от симуляции к реальности — Alpha-Mayo и точка перелома в робототехнике

После инфраструктуры и открытых моделей Huang переключился на то, что он назвал определяющей границей: физический ИИ — системы, воспринимающие физический мир, рассуждающие о нём и совершающие действия напрямую. Этот переход повторяет эпохи ИИ: перцептивный ИИ, генеративный ИИ, агентный ИИ. Физический ИИ — это стадия, когда интеллект входит в материальные системы.

Huang изложил архитектуру из трёх компьютеров для разработки физического ИИ:

  1. Обучающие компьютеры (DGX): создание базовых моделей
  2. Inference-компьютеры (встроенные чипы в роботы/автомобили): выполнение решений в реальном времени
  3. Моделирующие компьютеры (Omniverse): генерация синтетических данных и проверка физических рассуждений

Основная модель, лежащая в основе этой системы — Cosmos World Foundation Model, которая согласует язык, изображения, 3D-геометрию и законы физики для поддержки полного цикла — от симуляции до реального внедрения.

Alpha-Mayo: автономное вождение как стартовая точка

Автономное вождение — первый крупномасштабный пример внедрения физического ИИ. NVIDIA выпустила Alpha-Mayo — полноценную систему, включающую открытые модели, инструменты симуляции и датасеты для разработки систем уровня 4 автономного вождения.

Alpha-Mayo основан на парадигме рассуждения, а не чистого обучения на данных. Модель с 10 миллиардами параметров разбивает задачи на дискретные шаги, рассуждает о возможных сценариях и выбирает наиболее безопасную траекторию. Такая архитектура позволяет автомобилям справляться с уникальными ситуациями — например, сбоями светофоров на оживленных перекрестках — применяя логическое рассуждение, а не заученные шаблоны.

В реальных условиях система принимает текстовые подсказки, видеокамеры кругового обзора, историю состояния автомобиля и навигационные данные, выдавая как траекторию движения, так и объяснение своих решений на естественном языке. Эта прозрачность важна для сертификации и доверия пассажиров.

Mercedes-Benz CLA: NVIDIA подтвердила, что новый Mercedes-Benz CLA, основанный на Alpha-Mayo, уже производится и недавно получил высший рейтинг безопасности по NCAP (New Car Assessment Program). Автомобиль предлагает hands-free движение по шоссе и полностью автономную городскую навигацию, а в США в 2026 году начнутся более широкие внедрения. Все компоненты — код, чипы и системы — прошли формальную сертификацию по безопасности.

Также NVIDIA выпустила:

  • часть датасетов для обучения Alpha-Mayo для доработки исследователями
  • Alpha-Sim — открытый симуляционный фреймворк для оценки производительности Alpha-Mayo
  • инструменты для объединения реальных и синтетических данных для кастомных автономных систем

Партнерства в робототехнике и промышленная интеграция

Помимо транспорта, NVIDIA объявила о широком сотрудничестве в области робототехники. Ведущие компании — Boston Dynamics, Franka Robotics, Surgical, LG Electronics, NEURA, XRLabs и Logic Robotics — создают системы на базе платформы NVIDIA Isaac (simulation and development platform) и GR00T (базовая модель для робототехники).

Кроме того, NVIDIA анонсировала стратегическое партнерство с Siemens. Совместная работа включает интеграцию библиотек NVIDIA CUDA-X, моделей ИИ и цифровых двойников Omniverse в инструменты Siemens EDA, CAE и цифровых двойников. Это позиционирует физический ИИ как часть всего жизненного цикла — от проектирования и моделирования до производства и реального внедрения.

Стратегия: скорость открытого исходного кода и аппаратная привязка

Ключевое выступление на 1,5 часа закрепило двойственную стратегию NVIDIA в эпоху inference. С одной стороны, компания активно открывает модели, датасеты и инструменты разработки. С другой — делает своё аппаратное обеспечение, межсоединения и системные решения всё более незаменимыми за счёт глубокой совместной оптимизации.

Это создает порочный круг:

  • открытые модели и инструменты ускоряют внедрение
  • более широкое внедрение увеличивает спрос на inference в масштабах
  • масштаб inference требует специализированного оборудования NVIDIA для достижения стоимости и производительности
  • по мере роста объема токенов клиенты всё больше привязаны к инфраструктуре NVIDIA

Философия системного проектирования — от межсоединений NVLink 6 до платформы Inference Context Memory Storage — усложняет конкурентам повторить преимущества NVIDIA по TCO. То, что кажется «открытием» через Nemotron и Blueprints, на самом деле укрепляет стратегическую позицию компании, делая её платформу очевидным выбором для разработчиков ИИ, ищущих баланс между гибкостью и производительностью.

По мере перехода индустрии ИИ от доминирования обучения к доминированию inference, эта замкнутая стратегия — постоянное расширение спроса, снижение стоимости токена и привязка к инфраструктуре — расширяет экономическую крепость NVIDIA до уровней, которые могут оказаться непроходимыми для конкурентов, пытающихся закрепиться в эпохах inference и физического ИИ.

MAJOR-0,91%
IN54,24%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить