Nvidia(NVDA) на CES 2026 переписала правила AI-заводів… оголосила про «триразовий закон Мура»

TechubNews

在AI напівпровідниковому ринку, що закріплює свою домінуючу позицію, (NVDA) знову демонструє технологічні інновації на CES 2026, повністю переосмислюючи орієнтири економіки AI-заводів. Ця інновація системної архітектури, яку особисто презентував генеральний директор 黃仁勳, виходить за межі просто напівпровідникового рівня і являє собою «екстремальний колаборативний дизайн» — тісну координацію мереж, пам’яті, програмного забезпечення та інших компонентів повного стеку.

Під час цієї презентації, Nvidia не лише підвищила обчислювальну продуктивність, а й революційно збільшила ефективність генерації токенів, що змінює структуру витрат самої інфраструктури AI. Наприклад, аналіз показує, що обчислювальна потужність GPU зросла у 5 разів порівняно з попередніми показниками, а пропускна здатність системи — у 10 разів, що призводить до зростання максимальної кількості токенів до 15 разів. Це структурне нововведення, яке отримало назву «трьохкратного закону Мура», кардинально змінює економіку роботи AI-заводів і стратегії масштабування.

Як і компанії, що вижили у конкурентній боротьбі, створюючи масштабовані екосистеми, сучасний абсолютний переможець у епоху AI визначається не лише масштабом продуктивності, а й узгодженістю системного дизайну та економічною ефективністю, що зумовлена кривими навчання на масштабі. Intel(INTC), AMD(AMD), TSMC(TSMC), Apple(AAPL) — кожна з цих компаній заклала основу для виживання через різні підходи до масштабованості систем і швидкості навчання, але тепер Nvidia прагне домінувати у всьому технологічному стеку AI швидше і агресивніше.

Ця презентація, зосереджена навколо платформи Rubin, охоплює не лише GPU та CPU, а й переосмислює високопродуктивні мережеві інтерфейси(Spectrum-X Ethernet), DPU(BlueField) та внутрішню мережу на базі InfiniBand — NVLink, — у єдиній структурі. Такий повний стек системи не просто підвищує продуктивність окремих компонентів, а спрямований на максимізацію цільової пропускної здатності та інтенсивне підвищення загальної ефективності ресурсів. Насправді, результати — це не просто покращення продуктивності, а фундаментальні структурні покращення системного рівня.

У задачах тренування та інференсу AI ключовим показником стає «вартість генерації одного токена». На основі цієї системної ефективності Nvidia знизила цю вартість до десятої частини від попередніх рівнів. Це дозволяє навіть менш економічно вигідним AI-додаткам масштабуватися у великих обсягах за цілком прийнятною ціною. Таке проривне підвищення економічної ефективності безумовно спричинить перерозподіл IT-бюджетів і трансформацію структури витрат, орієнтованих на токени.

Їх швидкість розвитку вражає. Якщо традиційний закон Мура для напівпровідників передбачає цикли у 18-24 місяці, то Nvidia зараз змінює цю рамку, орієнтуючись на 12-місячний цикл для покращення продуктивності та ефективності. Це не лише технологічне лідерство, а й створення нової кривої навчання, що прискорює відставання конкурентів. Символізм у тому, що у новій парадигмі AI-інфраструктура буде більше базуватися на економічному лідерстві, ніж просто на технічних можливостях.

Конкуренти, такі як Intel, хоча й зберігають певний вплив у сегменті CPU, але без співпраці з Nvidia важко зберегти монополію. AMD, що має конкурентні CPU на архітектурі x86, у швидкому потоці перенесення навантажень AI-навчання і інференсу вже демонструє фізичні обмеження у швидкості та масштабі.

На ринку спеціалізованих чипів компанії, що мають переваги у затримках(Groq), та досліджують нові межі дизайну великих чипів(Cerebras), намагаються захопити нішеві сегменти екосистеми AI-заводів. Однак, думка галузі полягає в тому, що для повної заміни системної інтеграції Nvidia та її стратегії ефективності на основі кривих навчання, ці компанії мають суттєві обмеження.

Компанії, що розвивають AI-платформи, такі як GoogleGOOGL з TPU, та AmazonAWS з Trainium, мають високий рівень технічної готовності, але у масштабованості системної архітектури, особливо у великих фабричних умовах і мережевих вузлах, існує структурний бар’єр, що ускладнює конкурувати з Nvidia. Особливо у великих AI-проектах, таких як Gemini, швидкість еволюції моделей напряму впливає на результати, тому швидкість ітерацій, реалізована через CUDA та новітнє апаратне забезпечення, може стати стратегічною перевагою.

У той час як сфера конкуренції розширюється від виробництва напівпровідників до рівня «фабричних» систем і операційної економіки, компанії, що планують AI-стратегію, вже мають зосередитися на швидких експериментах і ітеративному навчанні для накопичення цінності, а не на масштабній інфраструктурі. Нові системи Nvidia для фабрик знижують бар’єри входу у епоху AI і підвищують ефективність стратегій, що передують даним і їхньому очищенню.

Суть цієї зміни парадигми ICT вже не в окремих чипах, а у балансі системи та економіки токенів. У часи прискореного технологічного розвитку та скорочення циклів прийняття рішень, переваги у кривій навчання, що належать провідним компаніям, безпосередньо перетворюються у домінуючу силу в галузі. З CES 2026 починається новий порядок у епосі AI-заводів.

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів