На рынке AI-микросхем, укрепляющем свою доминирующую позицию, компания (NVDA) вновь продемонстрировала технологические инновации на CES 2026, полностью переопределив стандарты экономики AI-заводов. Эта системная архитектура, представленная генеральным директором Хуаном Ренсуняном лично, выходит за рамки простого уровня полупроводников и представляет собой «крайне скоординированный дизайн», объединяющий сеть, память, программное обеспечение и другие компоненты полного стека.
На этом мероприятии Nvidia не только повысила вычислительную производительность, но и взорвала показатели эффективности генерации токенов, что изменило структуру затрат самой инфраструктуры AI. Например, аналитика показывает, что вычислительная мощность GPU увеличилась в 5 раз по сравнению с прошлым, а пропускная способность системы — в 10 раз, в результате чего максимальный спрос на генерируемые токены может вырасти в 15 раз. Это структурное нововведение, получившее название «тройной закон Мура», кардинально меняет операционную экономику и стратегию масштабирования AI-заводов.
Как и компании, выжившие в условиях жесткой конкуренции благодаря созданию масштабируемых экосистем, абсолютные лидеры эпохи AI делают ставку не только на масштаб производительности, но и на согласованность системного дизайна и экономию, основанную на кривых обучения при масштабировании. Intel(INTC), AMD(AMD), TSMC(TSMC), Apple(AAPL) — все они по-своему закладывают основы выживания, обеспечивая масштабируемость систем и скорость обучения. В то время как Nvidia стремится доминировать в технологическом стеке AI быстрее и более стремительно, чем конкуренты.
Ключевым элементом этого релиза является платформа Rubin, которая охватывает не только GPU и CPU, но и полностью переосмысливает высокопроизводительные сетевые интерфейсы(Spectrum-X Ethernet), DPU(BlueField) и внутренние сети на базе InfiniBand NVLink, объединяя их в единую интегрированную структуру. Такой стек не просто повышает отдельные компоненты, а фокусируется на максимизации целевой пропускной способности и плотном использовании ресурсов. На практике это не только повышение производительности, но и фундаментальные улучшения архитектуры всей системы.
В задачах обучения и вывода AI ключевым показателем становится «стоимость за токен». Благодаря эффективности системы Nvidia удалось снизить эту стоимость в десять раз по сравнению с прошлым. Это позволяет даже менее экономичным AI-приложениям масштабироваться с достаточной рентабельностью. Такой прорыв в экономике неизбежно вызовет перераспределение IT-бюджетов и трансформацию стоимости, ориентированной на токены, во всей индустрии AI.
Темпы улучшения впечатляют. Если в традиционной полупроводниковой индустрии закон Мура предполагает цикл в 18-24 месяца, то Nvidia сейчас меняет основные параметры производительности и эффективности за 12 месяцев. Это не только технологическое лидерство, но и создание новой кривой обучения, ускоряющей отставание конкурентов. Символизм в том, что в новой парадигме платформы AI инфраструктурные преимущества будут больше зависеть от экономического лидерства, чем от чисто технических возможностей.
Конкурент Intel, хотя и сохраняет определенное влияние в области CPU, при отсутствии сотрудничества с Nvidia не сможет удержать свою прежнюю монополию. AMD, обладая конкурентоспособными x86 CPU, сталкивается с физическими ограничениями скорости и масштабируемости в условиях быстрого переноса рабочих нагрузок обучения и вывода AI.
На рынке специализированных чипов компании, такие как Groq с преимуществами в задержке, и Cerebras, исследующие новые границы проектирования гигантских чипов, пытаются занять нишу в экосистеме AI-заводов. Однако мнения индустрии указывают, что для полноценной замены системной интеграции Nvidia и стратегии расширения эффективности на основе кривых обучения эти компании имеют существенные ограничения.
Google(GOOGL) с платформой TPU и Amazon(AWS) с Trainium также обладают высоким технологическим уровнем, однако в масштабируемости систем и преодолении сетевых узких мест в крупных фабричных средах, особенно в рамках таких проектов, как Gemini, они сталкиваются с структурными ограничениями, которые трудно преодолеть без Nvidia. В частности, скорость эволюции моделей напрямую влияет на результаты, и использование CUDA и новейшего оборудования для итеративного обучения может стать стратегическим преимуществом.
В условиях расширения конкуренции с фокусом не только на полупроводниковом производстве, но и на операционной экономике «фабрик» — уровень стратегий клиентов, разрабатывающих AI, переходит к быстрому экспериментированию и итеративному обучению, а не к масштабной инфраструктуре. Новая система Nvidia для фабрик снижает порог входа в эпоху AI и одновременно повышает эффективность стратегий, предполагающих проведение экспериментов до этапа обработки данных.
Суть этого сдвига в парадигме ICT уже не в отдельной производительности чипа, а в балансе между системой и экономикой токенов. В условиях ускорения технологического внедрения и сокращения циклов принятия решений только у лидирующих компаний есть преимущества в кривых обучения, которые напрямую превращаются в контроль над индустрией. Начиная с CES 2026, новая эпоха AI-заводов становится все более очевидной.