DeepSeek V4 объявила о отказе от NVIDIA! Где сейчас китайская борьба за «выделенную вычислительную мощность» в ИИ?

動區BlockTempo

DeepSeek объявила о полном переходе на новую генерацию модели V4 с использованием отечественных чипов, отказавшись от GPU NVIDIA. От инцидента с ZTE до трех раундов запретов на чипы — китайская индустрия ИИ идет по трем параллельным маршрутам: оптимизация алгоритмов, замещение импортных решений и выход токенов на мировой рынок.
(Предыстория: Гао рассказывает о DeepSeek: «Мы точно не копировали ChatGPT, а обошли платформу CUDA через низкоуровневые технологии»)
(Дополнение к фону: FBI и Белый дом начали расследование! США подозревают, что DeepSeek получил чипы NVIDIA через посредников в Сингапуре)

Восемь лет назад ZTE внезапно остановилась. 16 апреля 2018 года американский Минторг ввел санкции, которые парализовали работу компании ZTE, с 80 тысячами сотрудников и годовым оборотом свыше триллиона юаней — четвертого по величине производителя телекоммуникационного оборудования в мире. В один момент производство остановилось. Санкции запрещали любым американским компаниям поставлять ZTE компоненты, товары, программное обеспечение и технологии на семь лет.

Без чипов Qualcomm базовые станции прекратили работу. Без лицензии Android от Google смартфоны стали бесполезны. Через 23 дня ZTE объявила, что основные виды деятельности невозможны.

В итоге ZTE удалось выжить, но заплатив 1,4 миллиарда долларов.

10 миллиардов долларов штрафа — выплатили сразу; 400 миллионов долларов гарантийных средств — внесены на доверительный счет в американском банке. Также смена руководства и введение американских команд по соблюдению нормативов. За весь 2018 год чистый убыток ZTE составил 7 миллиардов юаней, выручка упала на 21,4%.

Тогдашний председатель ZTE Ин Имин писал внутри компании: «Мы находимся в сложной отрасли, сильно зависящей от глобальных цепочек поставок». Эти слова звучали как размышление и одновременно как безысходность.

Через восемь лет, 26 февраля 2026 года, китайский ИИ-единорог DeepSeek объявил, что его новая мультимодальная модель V4 будет в первую очередь тесно сотрудничать с отечественными чипмейкерами, впервые реализуя полный цикл — от предобучения до тонкой настройки — без использования NVIDIA.

Проще говоря: мы больше не используем NVIDIA.

После этого новости вызвали первую волну сомнений на рынке. NVIDIA занимает более 90% мирового рынка обучающих чипов для ИИ. Отказ от нее — разумно ли это с коммерческой точки зрения?

Но за выбором DeepSeek скрыта более глубокая проблема, чем бизнес-логика: какая нужна мощность для независимого развития ИИ в Китае?

Многие считают, что чиповые санкции — это ограничение аппаратного обеспечения. Но настоящая проблема — это CUDA.

CUDA, или Compute Unified Device Architecture, — платформа параллельных вычислений и модель программирования, выпущенная NVIDIA в 2006 году. Она позволяет разработчикам напрямую использовать вычислительные ресурсы GPU NVIDIA для ускорения сложных задач.

До эпохи глубокого обучения это было узкоспециализированным инструментом для тех, кто разбирается в программировании. Но когда пришла волна ИИ, CUDA стала основой всей индустрии.

Обучение больших моделей — это по сути огромные матричные вычисления, а GPU как раз в этом сильны.

Благодаря долгому развитию, NVIDIA создала с помощью CUDA целую экосистему — от аппаратных решений до программных фреймворков. Сегодня все ведущие ИИ-фреймворки, от TensorFlow Google до PyTorch Meta, глубоко связаны с CUDA.

Магистрант по ИИ с первого дня учится и работает в среде CUDA. Каждая его строка кода укрепляет «крепость» NVIDIA.

К 2025 году в экосистеме CUDA насчитывается более 4,5 миллиона разработчиков, более 3000 приложений на GPU, более 40 тысяч компаний используют CUDA. Это означает, что более 90% мировых разработчиков ИИ связаны с экосистемой NVIDIA.

CUDA — это движущийся маховик: чем больше его используют, тем больше появляется инструментов, библиотек и кода, тем сильнее экосистема. И чем сильнее экосистема, тем больше новых разработчиков к ней присоединяется. Этот маховик практически невозможно остановить.

В результате NVIDIA продает самые дорогие инструменты и задает единственный способ майнинга. Хотите сменить «лопату»? Можно. Но придется переписать весь опыт, инструменты и код, накопленные десятилетиями глобальной научной и инженерной мысли.

Кто заплатит за эти издержки?

Когда 7 октября 2022 года BIS ввела первые ограничения на экспорт A100 и H100 в Китай, китайские ИИ-компании впервые почувствовали удушье, похожее на ZTE. NVIDIA быстро выпустила «локализованные» версии A800 и H800, снизив межсоединения чипов, чтобы хоть как-то поддержать поставки.

Но уже через год, 17 октября 2023-го, второй раунд санкций ужесточил ограничения — A800 и H800 оказались под запретом, 13 китайских компаний попали в список санкционных организаций. NVIDIA пришлось выпустить еще более урезанные H20. К декабрю 2024-го, в последний месяц президентства Байдена, ограничения коснулись даже H20.

Три раунда санкций — по нарастающей.

Но на этот раз развитие ситуации сильно отличается от истории с ZTE.

Все думали, что под запретом мечта о больших моделях в Китае закончится.

Но ошибались. В условиях блокировки китайские компании не пошли в лобовую атаку, а начали искать обходные пути. Первая линия сопротивления — не чипы, а алгоритмы.

К концу 2024 — началу 2025 года китайские ИИ-компании переключились на технологию гибридных экспертных моделей.

Проще говоря, — разбивать огромную модель на множество маленьких «экспертов», активировать только самых релевантных при выполнении задачи, а не запускать всю модель целиком.

DeepSeek V3 — яркий пример этого подхода. В ней 671 миллиард параметров, но при выводе активируется всего 37 миллиардов — около 5,5% от общего числа. На обучение ушло 58 дней на 2048 GPU NVIDIA H800, затраты составили 5,576 миллиона долларов. Для сравнения, по оценкам, стоимость обучения GPT-4 — около 78 миллионов долларов. Разница в порядке.

Такая оптимизация алгоритмов прямо влияет на цену. API DeepSeek стоит всего 0,028 — 0,28 долларов за миллион токенов входных данных, 0,42 доллара за вывод. В то время как GPT-4 — 5 долларов за вход и 15 за вывод. Claude Opus — еще дороже: 15 и 75 долларов соответственно. В пересчете — DeepSeek в 25–75 раз дешевле Claude.

Эта ценовая разница вызывает огромный отклик у разработчиков по всему миру. В феврале 2026-го на крупнейшей платформе API для ИИ — OpenRouter — за три недели число вызовов китайских моделей выросло на 127%, впервые превысив показатели США. Год назад доля китайских моделей на платформе была менее 2%. Через год — рост на 421%, почти 60%.

За этой статистикой скрывается важное структурное изменение. Со второй половины 2025 года основные сценарии применения ИИ сместились с диалогов на агентские системы. В агентском режиме один запрос потребляет в 10–100 раз больше токенов, чем обычный чат. При экспоненциальном росте затрат на токены цена становится решающим фактором. Китайские модели с их высокой ценой эффективности как раз попали в этот «оконный» момент.

Но снижение стоимости вывода не решает главную проблему обучения. Если модель не обновлять и не дообучать на новых данных, ее возможности быстро деградируют. А обучение — это та самая «черная дыра» мощности.

Откуда взять «лопату» для обучения?

Городок Сучжоу, провинция Цзянсу, — известен производством нержавеющей стали и продуктов для здоровья, до этого никак не связан с ИИ. Но в 2025 году здесь запустили линию отечественных серверов для обучения моделей — за 180 дней от подписания контракта до запуска.

Ключевые компоненты — два полностью отечественных чипа: процессор Лунчэн 3C6000 и ускоритель Тайчу Юань Ци T100. Лунчэн 3C6000 — полностью разработан с нуля, от архитектуры до инструкций. Тайчу Юань Ци — создан на базе национального суперкомпьютерного центра Вэньчжэня и команды Цинхуа, использует асинхронную многоядерную архитектуру.

При полной мощности эта линия способна производить один сервер каждые 5 минут. Общие инвестиции — 1,1 миллиарда юаней, планируемое годовое производство — 100 тысяч единиц.

Самое важное — на базе этих отечественных чипов уже начали выполнять реальные задачи обучения больших моделей.

В январе 2026-го Huawei и Zhipu AI представили GLM-Image — первую полностью отечественную модель для генерации изображений, прошедшую полный цикл обучения на национальных чипах. В феврале — китайский гигант China Telecom завершил обучение своего гигантского «Звездного» проекта на отечественной инфраструктуре.

Эти примеры доказывают важный факт: отечественные чипы уже перешагнули границу «только для вывода» и успешно используются для обучения. Это качественный скачок. Для вывода достаточно запустить уже обученную модель, требования к чипам ниже. Обучение же — это обработка огромных данных, сложные градиентные вычисления и обновление параметров, — требования к мощности, межсоединениям и софтверной экосистеме в разы выше.

Основная сила, реализующая эти задачи — чипы серии Ascend от Huawei. К концу 2025 года их экосистема насчитывала более 4 миллионов разработчиков, свыше 3000 партнеров, 43 крупные модели на базе Ascend прошли предобучение, более 200 — адаптированы с открытым исходным кодом. На MWC 2026 2 марта Huawei впервые представила за рубежом новый вычислительный базис SuperPoD.

Модель Ascend 910B по FP16 уже сравнима с NVIDIA A100. Хотя разрыв еще есть, она уже стала пригодной для использования, переходит от «можно использовать» к «удобно». Создание экосистемы нельзя откладывать до идеальных чипов — нужно начинать масштабировать уже сейчас, чтобы реальные бизнес-задачи стимулировали развитие чипов и программного обеспечения. В 2026 году компании ByteDance, Tencent, Baidu планируют удвоить закупки отечественных серверов по сравнению с прошлым годом. По данным Минкомсвязи, объем китайских вычислительных мощностей достиг 1590 EFLOPS. 2026 год — год масштабных внедрений отечественных решений.

В начале 2026-го в Вирджинии, где сосредоточены крупные дата-центры, приостановили одобрение новых проектов по строительству. В Джорджии — тоже, до 2027-го. В Иллинойсе и Мичигане — введены ограничения.

По данным IEA, в 2024 году энергопотребление дата-центров США достигло 183 ТВт·ч, что около 4% всей страны. К 2030 году ожидается удвоение — до 426 ТВт·ч, доля в общем потреблении может превысить 12%. Генеральный директор Arm предсказал, что к 2030 году дата-центры ИИ будут потреблять 20–25% электроэнергии США.

Электросеть США уже не справляется. Электроснабжение 13 штатов Восточного региона — дефицит 6 ГВт. К 2033 году общий дефицит мощности достигнет 175 ГВт — это примерно потребление 130 миллионами домов. Стоимость электроэнергии в дата-центрах выросла за пять лет на 267%.

Границы вычислительных мощностей — это энергия. А в энергетическом аспекте разрыв между Китаем и США гораздо больше, чем в чипах, только направление противоположное.

Годовая выработка электроэнергии в Китае — 10,4 триллиона кВт·ч, в США — 4,2 триллиона. В Китае это в 2,5 раза больше. Важнее то, что бытовое потребление в Китае — всего 15% от общего, а в США — 36%. Это означает, что в Китае есть гораздо больше промышленной энергии, которую можно вложить в развитие вычислительных мощностей.

По стоимости электроэнергии США — 0,12–0,15 доллара за кВт·ч, в западных промышленных регионах Китая — около 0,03 доллара, то есть в 4–5 раз дешевле.

Рост производства электроэнергии в Китае в 7 раз превышает американский.

Пока в США ищут энергию, китайский ИИ тихо выходит на мировой рынок. Но на этот раз не продукты или фабрики, а токены.

Token — минимальная единица обработки информации в модели ИИ, становится новым цифровым товаром. Он производится в китайских вычислительных фабриках и транспортируется по оптоволоконным кабелям по всему миру.

Данные DeepSeek по географии пользователей показывают: 30,7% — внутри Китая, 13,6% — Индия, 6,9% — Индонезия, 4,3% — США, 3,2% — Франция. Поддержка 37 языков делает его популярным в Бразилии и других развивающихся рынках. В мире зарегистрировано 26 тысяч компаний, 3200 — используют корпоративные версии.

В 2025 году 58% новых ИИ-стартапов включили DeepSeek в свои технологические стеки. В Китае доля DeepSeek — 89%. В странах с санкциями — от 40% до 60%.

Эта картина очень напоминает другую битву за индустриальную автономию, развернувшуюся сорок лет назад.

В 1986 году в Токио под сильным давлением США японское правительство подписало «Соглашение по полупроводникам США — Япония». Основные пункты: открыть рынок полупроводников, доля американских чипов в Японии должна превышать 20%; запретить японским полупроводникам продавать по ценам ниже себестоимости; ввести 100% штрафные пошлины на японские чипы на сумму 300 миллионов долларов. Также США отказались одобрить покупку Fujitsu компанией Quick Semiconductor.

В тот год японская индустрия полупроводников достигла пика. В 1988 году Япония контролировала 51% мирового рынка полупроводников, США — 36,8%. В топ-10 мировых компаний шесть японских: NEC, Toshiba, Hitachi, Fujitsu, Mitsubishi, Panasonic. В 1985 году Intel понесла убытки в 173 миллиона долларов в борьбе с японцами и чуть не разорилась.

Но после подписания соглашения всё изменилось.

США начали полномасштабное давление через расследования по статье 301 и другие меры. Поддержали корейские Samsung и Hynix, чтобы снизить японское доминирование. Доля японских DRAM упала с 80% до 10%. К 2017 году японский рынок IC сократился до 7%. Бывшие гиганты либо распались, либо были куплены, либо ушли с рынка в убытках.

Печальная судьба японских полупроводников — в том, что они довольствовались ролью ведущего производителя в глобальной цепочке, управляемой внешними силами, и так и не создали собственной независимой экосистемы. Когда волна ушла, они остались только с производством.

Сегодня китайская индустрия ИИ стоит на похожем, но кардинально другом перекрестке.

Похожесть — в том, что мы тоже сталкиваемся с сильным внешним давлением. Три раунда санкций на чипы, барьеры CUDA.

Отличие — в том, что мы выбрали более сложный путь. От оптимизации алгоритмов до перехода на отечественные чипы для обучения, от формирования экосистемы из 400 тысяч разработчиков до выхода токенов на мировой рынок.

Каждый шаг этого пути создает ту самую независимую индустриальную экосистему, которой японцы так и не достигли.

27 февраля 2026 года одновременно опубликованы три отчета о результатах работы отечественных производителей ИИ-чипов.

Cambricon — рост выручки на 453%, впервые вышли на прибыль за год. Moore Threads — рост на 243%, но чистый убыток 1 миллиард юаней. Muxi — рост на 121%, убытки около 800 миллионов.

Часть — пламя, часть — море.

Пламя — жажда рынка. Освободившиеся 95% пространства, оставленного NVIDIA, заполняют эти китайские компании. Каким бы ни было качество, рынок нуждается в альтернативе NVIDIA. Это уникальный шанс, вызванный геополитическими разломами.

Море — огромные затраты на развитие экосистемы. Каждая убытка — это инвестиции в построение независимой экосистемы, R&D, софт, инженеры, решающие проблемы совместимости. Эти потери — не неумелость, а «налог войны» за создание собственной экосистемы.

Эти три отчета — самые честные свидетельства этой борьбы за мощность. Это не победа с разгоном, а жестокая, кровавая позиционная битва.

Но форма войны уже изменилась. Восемь лет назад мы говорили о выживании. Сегодня — о том, сколько стоит остаться в игре.

Само по себе — это прогресс.

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев