DeepSeek V4 оголошує про відмову від NVIDIA! Де зараз у Китаї у боротьбі за «незалежність обчислювальної потужності» у сфері ШІ?

動區BlockTempo

DeepSeek оголосила, що нове покоління моделі V4 повністю використовуватиме вітчизняні чіпи, більше не залежачи від GPU NVIDIA. Від інциденту з ZTE до трьох заборон на чіпи — китайська AI-індустрія одночасно проривається трьома шляхами: оптимізація алгоритмів, заміщення імпортних компонентів та вихід токенів на світовий ринок.
(Передісторія: Гао говорить про DeepSeek: абсолютно не плагіат ChatGPT, обхід платформи CUDA через низькорівневі технології)
(Додатковий фон: FBI та Білий дім почали розслідування! США підозрюють: DeepSeek отримує NVIDIA-чіпи через посередників у Сінгапурі)

Вісім років тому ZTE раптово зупинилася. 16 квітня 2018 року Міністерство торгівлі США ввело заборону, яка паралізувала ZTE — компанію з 80 тисячами співробітників і річним доходом понад тисячу мільярдів юанів, — за одну ніч. Заборона забороняла будь-яким американським компаніям продавати ZTE компоненти, товари, програмне забезпечення та технології протягом наступних семи років.

Без чіпів Qualcomm базові станції зупинили виробництво. Без ліцензії Android від Google — смартфони стали безсистемними. Через 23 дні ZTE оголосила, що основна діяльність стала неможливою.

Зрештою, ZTE вижила, але заплатила ціну у 1,4 мільярда доларів.

10 мільярдів доларів штрафу — сплатили одразу; 400 мільйонів доларів гарантійних внесків — на депозит у американському банку. Крім того, всі керівники були замінені, і компанія підпала під контроль американських регуляторів. У 2018 році ZTE зазнала чистих збитків у 7 мільярдів юанів, а доходи впали на 21,4% порівняно з попереднім роком.

Тодішній голова ZTE Янь Імін у внутрішньому листі писав: «Ми працюємо у складній галузі, яка сильно залежить від глобальних ланцюгів постачання». Це був і рефлексія, і безвихідь.

Вісім років потому, 26 лютого 2026 року, китайський AI-єдиноріг DeepSeek оголосив, що його майбутня мультимодальна модель V4 буде пріоритетно тісно співпрацювати з вітчизняними виробниками чіпів, вперше реалізуючи повний процес від передтренування до тонкого налаштування без використання NVIDIA.

Проще кажучи: нам більше не потрібен NVIDIA.

Після цієї новини ринок відреагував скептично. NVIDIA контролює понад 90% світового ринку тренувальних чіпів для AI. Відмовитися від неї — це логічно з точки зору бізнесу?

Але за цим вибором DeepSeek приховано щось більше, ніж бізнес-логіка: яку саме незалежність у обчислювальній потужності потребує китайський AI?

Багато хто вважає, що заборони на чіпи — це боротьба з апаратним забезпеченням. Насправді ж, те, що справді душить китайські AI-компанії — це щось під назвою CUDA.

CUDA, або Compute Unified Device Architecture, — це платформа для паралельних обчислень і модель програмування, запущена NVIDIA у 2006 році. Вона дозволяє розробникам безпосередньо викликати обчислювальні ресурси GPU NVIDIA для прискорення складних задач.

До появи епохи глибокого навчання це був інструмент для технарів. Але коли прийшла хвиля глибокого навчання, CUDA стала основою всієї AI-індустрії.

Навчання великих моделей — це в основі масивні матричні обчислення. А саме це найкраще робить GPU.

Завдяки багаторічному досвіду, CUDA створила для світових розробників AI повний стек інструментів — від апаратного забезпечення до високорівневих фреймворків. Сьогодні всі провідні AI-фреймворки, від TensorFlow від Google до PyTorch від Meta, глибоко інтегровані з CUDA.

Доктор AI з перших днів навчання працює у середовищі CUDA, пише програми, проводить експерименти. Кожен рядок коду — це зміцнення позицій NVIDIA.

До 2025 року екосистема CUDA налічує понад 4,5 мільйони розробників, понад 3000 застосувань на GPU, понад 40 тисяч компаній у світі використовують CUDA. Це означає, що понад 90% світових AI-розробників — у екосистемі NVIDIA.

CUDA — це «фронтир», що обертається. Чим більше розробників його використовує, тим більше інструментів, бібліотек і коду з’являється. Екосистема зростає, залучаючи ще більше нових учасників. І цей цикл вже майже незупинний.

В результаті NVIDIA продає найдорожчі лопати і визначає єдину стратегію копання. Хочеш змінити лопату? Можна. Але тоді доведеться переписати всі знання, інструменти і код, накопичені за десятиліття глобальними інтелектуалами.

Хто заплатить цю ціну?

Коли 7 жовтня 2022 року BIS запровадила перший етап контролю за експортом NVIDIA A100 і H100 у Китай, китайські AI-компанії вперше відчули, що таке «задихатися» від обмежень. NVIDIA швидко випустила «локалізовані» версії A800 і H800, зменшивши пропускну здатність між чіпами, щоб хоч якось підтримати поставки.

Але вже через рік, 17 жовтня 2023-го, другий раунд контролю посилив обмеження — A800 і H800 заборонили, 13 китайських компаній внесли до списку санкцій. NVIDIA була змушена випустити ще більш урізані H20. До грудня 2024-го, за останнім етапом адміністрації Байдена, експорт H20 був суворо обмежений.

Три етапи контролю — і кожен раз все жорсткіше.

Але цього разу сценарій зовсім інший, ніж у випадку з ZTE.

Багато думали, що заборони означатимуть кінець мрії про великі моделі AI у Китаї.

Вони помилялися. У відповідь на блокування, китайські компанії не пішли у відкритий конфлікт, а почали прориватися з іншого боку — через алгоритми.

Наприкінці 2024 — 2025 років китайські AI-компанії масово перейшли до нової технології: гібридних експертних моделей.

Простими словами, це розбиття великої моделі на багато менших «експертів», які активуються лише при необхідності, обробляючи конкретне завдання.

DeepSeek V3 — класичний приклад такої стратегії. Вона має 671 мільярд параметрів, але під час кожного запиту активує лише 37 мільярдів — менше 6% від загальної кількості. Вартість тренування — 58 днів на 2048 GPU NVIDIA H800, загалом 5,576 мільйонів доларів. Для порівняння, оцінка вартості тренування GPT-4 — близько 78 мільйонів доларів. Різниця у кілька порядків.

Оптимізація алгоритмів і зменшення витрат безпосередньо відображаються у ціні. API DeepSeek коштує від 0,028 до 0,28 долара за мільйон токенів на вхід і 0,42 долара — на вихід. Для порівняння, GPT-4 — 5 і 15 доларів відповідно. Claude Opus — ще дорожчий: 15 і 75 доларів. Тобто DeepSeek у 25–75 разів дешевший за Claude.

Ця різниця у ціні викликає великий резонанс серед світових розробників. У лютому 2026 року на платформі OpenRouter — найбільшому API-агрегаторі моделей AI — кількість запитів до китайських моделей за три тижні зросла на 127%, вперше перевищивши США. Рік тому частка китайських моделей там була менше 2%, а тепер — майже 60%, зростання на 421%.

За цим стоїть важлива структурна зміна: з другої половини 2025 року основні сценарії застосування AI змістилися з чатів у агентські системи. В таких сценаріях один запит споживає у 10–100 разів більше токенів, ніж звичайний чат. А при зростанні кількості токенів у геометричній прогресії ціна стає ключовим фактором. Китайські моделі з їхнім високим співвідношенням ціна/якість саме в цей момент отримали свою «вікно можливостей».

Але зниження вартості обчислень не вирішує головної проблеми тренування. Велика модель, яка не оновлюється і не тренується на актуальних даних, швидко втрачає здатність. А тренування — це той самий чорний ящик обчислювальної потужності.

Звідки взяти «лопату» для тренувань?

Маленьке містечко Сучжоу, провінція Цзянсу, раніше відоме виробництвом нержавіючої сталі та харчових добавок, раптом у 2025 році побудувало 148-метрову вітчизняну лінію виробництва обчислювальних серверів — всього за 180 днів від підписання контракту до запуску.

Головний компонент — два повністю вітчизняні чіпи: процесор Лунчень 3C6000 і прискорювач Тайчу Юань Ці T100. Лунчень 3C6000 — розроблений з нуля, від архітектури до інструкцій. Тайчу Юань Ці — створений командою з Національного центру суперкомп’ютерів у Вусі та Тяньцзинського університету, з гібридною архітектурою.

При повному потоці виробництва ця лінія здатна за 5 хвилин зібрати один сервер. Загальні інвестиції — 1,1 мільярда юанів, річне виробництво — 100 тисяч машин.

Ще важливіше — на базі цих вітчизняних чіпів уже почали виконувати реальні тренування великих моделей.

У січні 2026 року компанія Zhipu AI у співпраці з Huawei презентувала GLM-Image — першу у світі модель для генерації зображень, повністю треновану на вітчизняних чіпах. У лютому — китайський «Зірковий» великий модельний проект у Шанхаї завершив повний цикл тренування на власному масиві з тисячі вітчизняних серверів.

Ці кейси доводять одне: вітчизняні чіпи вже перейшли від можливості лише для виведення моделей до здатності їх тренувати. Це якісний прорив. Для виведення достатньо запустити вже натреновану модель — вимоги до чіпів нижчі. А для тренування потрібно обробляти величезні обсяги даних, виконувати складні обчислення градієнтів і оновлювати параметри — і тут вимоги зростають у рази.

Головна сила для таких задач — процесори серії Huawei Ascend. До кінця 2025 року кількість розробників у цій екосистемі перевищила 4 мільйони, понад 3000 партнерів, 43 провідні великі моделі треновані на Ascend, понад 200 — адаптовані з відкритим кодом. На MWC 2026 2 березня Huawei вперше презентувала нову платформу обчислювальних ресурсів SuperPoD.

Модель Ascend 910B з FP16 вже конкурує з NVIDIA A100. Хоча ще є прогалини, вона вже стала доступною, і поступово переходить до зручності. Створення екосистеми не можна чекати ідеальної чіпової платформи — потрібно масштабувати вже зараз, щоб через реальні бізнес-завдання стимулювати розвиток апаратного і програмного забезпечення. Цільові компанії — ByteDance, Tencent, Baidu — у 2026 році подвоїли обсяги закупівель вітчизняних серверів порівняно з минулим роком. За даними Мінкомзв’язку, обсяг китайських AI-обчислень уже досяг 1590 EFLOPS. 2026 рік — рік масштабної розгортки вітчизняних обчислювальних потужностей.

На початку 2026 року у Вірджинії, що обробляє значну частину світового дата-центрового трафіку, припинили затвердження нових проектів будівництва дата-центрів. У Джорджії — аналогічно, заборони триватимуть до 2027 року. В Іллінойсі та Мічигані — також запроваджені обмеження.

За даними Міненерго США, у 2024 році енергоспоживання дата-центрів США сягнуло 183 ТВт-год, що становить близько 4% від загального споживання країни. До 2030 року ця цифра подвоїться до 426 ТВт-год, а частка може перевищити 12%. Генеральний директор Arm прогнозує, що до 2030 року AI-центр обробки даних у США споживатиме 20–25% всієї електроенергії країни.

Енергетична інфраструктура США вже не справляється. Мережа PJM, що охоплює 13 штатів на сході, має дефіцит потужності у 6 ГВт. До 2033 року загальний дефіцит потужності США сягне 175 ГВт — це еквівалент 130 мільйонів домогосподарств. Вартість електроенергії у великих дата-центрах зросла на 267% за останні п’ять років.

Обмеження у обчислювальній потужності — це енергетика. А у цій сфері, між Китаєм і США, різниця ще більша, ніж у чіпах, — тільки напрямки протилежні.

Китай виробляє у рік 10,4 трильйонів кіловат-годин електроенергії, США — 4,2 трильйони. Китай у 2,5 рази більше. Ще важливіше, що лише 15% цієї енергії йде на побутове споживання, тоді як у США — 36%. Це означає, що у Китаї є значний резерв для промислового споживання електроенергії, яку можна спрямувати на обчислювальні задачі.

Що стосується цін на електроенергію, то у США — 0,12–0,15 долара за кіловат-годину у регіонах AI-компаній, а у західних провінціях — близько 0,03 долара, тобто у 4–5 разів дешевше.

Зростання виробництва електроенергії у Китаї у 7 разів перевищує США.

Поки США занепокоєні енергетикою, Китай тихо виходить на світовий ринок токенів.
Token — мінімальна одиниця обробки інформації у моделях AI, — стає новим цифровим товаром. Виробляється у китайських обчислювальних фабриках і через підводні кабелі доставляється по всьому світу.

Дані DeepSeek про розподіл користувачів ілюструють цю тенденцію: 30,7% — у Китаї, 13,6% — в Індії, 6,9% — в Індонезії, 4,3% — у США, 3,2% — у Франції. Підтримує 37 мов, популярний у Бразилії та інших нових ринках. Усього 26 тисяч компаній відкрили акаунти, 3200 — запустили корпоративні версії.

У 2025 році 58% нових AI-стартапів включили DeepSeek до технологічного стеку. В Китаї — 89% ринку. В інших країнах під санкціями — частки коливаються від 40% до 60%.

Ця картина дуже нагадує іншу боротьбу за промислову незалежність, що відбувалася сорок років тому.

У 1986 році в Токіо, під тиском США, японський уряд підписав «Договір США-Японія щодо напівпровідників». Три ключові пункти: відкриття ринку напівпровідників у Японії, частка американських чіпів у японському ринку понад 20%, заборона на експорт японських напівпровідників за ціною нижчою за собівартість, і 100% мита на японські чіпи на суму 300 мільйонів доларів. Також США відмовилися від купівлі компанії Fujitsu, що хотіла придбати Quick Semiconductor.

Тоді японська індустрія напівпровідників була на піку. У 1988 році Японія контролювала 51% світового ринку напівпровідників, США — 36,8%. У топ-10 світових компаній — шість японських: NEC, Toshiba, Hitachi, Fujitsu, Mitsubishi, Panasonic. У 1985 році Intel зазнала збитків у 173 мільйони доларів у боротьбі з японськими виробниками і ледве не збанкрутувала.

Але після підписання договору все змінилося.

За допомогою розслідувань 301 і інших інструментів США почали жорсткий тиск на японські компанії, підтримуючи корейські Samsung і Hynix, які за нижчими цінами витіснили японських гравців. Частка японських DRAM зменшилася з 80% до 10%. У 2017 році японський ринок IC — лише 7%. Величезні японські корпорації або розділилися, або були поглинені, або зійшли з ринку через безперервні збитки.

Горе японських напівпровідників у тому, що вони зосередилися лише на виробництві для глобальної системи, керованої зовнішніми гравцями, і ніколи не створили власної незалежної екосистеми. Коли хвиля спала, вони зрозуміли — окрім виробництва, у них нічого не залишилося.

Сьогодні китайська AI-індустрія стоїть на схожому, але кардинально іншому перехресті.

Загалом схоже, що ми знову стикаємося з зовнішнім тиском. Три раунди контролю за чіпами, що посилюються, і високий бар’єр CUDA-екосистеми.

Але цього разу ми обрали більш складний шлях: від оптимізації алгоритмів до створення власної екосистеми, від переходу з inference до training на вітчизняних чіпах, від 4 мільйонів розробників у екосистемі Huawei до виходу токенів на світовий ринок. Кожен крок — це побудова незалежної індустріальної екосистеми, якої японці ніколи не мали.

27 лютого 2026 року — у один день — опубліковано три звіти про результати роботи вітчизняних AI-чіпів.

Cambricon показала зростання доходів на 453%, вперше вийшла на прибуток за рік. Moore Threads — зростання на 243%, але чистий збиток — 1 мільярд доларів. MuXi — зростання на 121%, збитки — майже 800 мільйонів.

Частина — вогонь, частина — море.

Вогонь — це неймовірний попит ринку. Порожнечу, яку залишив у 95% сегменту Huang Renxun, заповнюють ці вітчизняні компанії. Незалежно від ефективності та екосистеми, ринок потребує другого альтернативного гравця поза NVIDIA. Це — унікальна можливість, що відкрилася через геополітичний розлом.

Море — це великі витрати на побудову екосистеми. Кожен збиток — це інвестиція у розвиток власної екосистеми, у R&D, у підтримку софту, у залучення інженерів для роботи з клієнтами. Це не через некомпетентність, а — війна за незалежність, за створення власної екосистеми.

Ці три звіти — найвідвертіше відображення реального стану цієї боротьби за обчислювальні ресурси. Це не перемога, а жорстка, кровопролитна позиційна битва.

Але форма цієї боротьби вже змінилася. Вісім років тому ми говорили про питання «як вижити». Сьогодні — про ціну, яку потрібно заплатити, щоб залишитися.

Саме ціна — це прогрес.

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів