Jensen Huang Mengumumkan Delapan Pengumuman Utama Hanya Dalam 1,5 Jam, Memetakan Jalur NVIDIA Menuju Dominasi Inferensi dan Robotika

Pada 5 Januari di CES 2026, CEO NVIDIA Jensen Huang memimpin panggung dengan jaket kulit khasnya selama 1,5 jam, merangkum visi paling ambisius perusahaan untuk era AI ke dalam satu presentasi berdampak tinggi. Delapan pengumuman utama muncul dari jendela singkat ini, membentuk kembali lanskap kompetitif dari pelatihan model AI menuju apa yang NVIDIA lihat sebagai perbatasan berikutnya: inferensi efisien biaya dalam skala besar dan AI fisik yang terintegrasi di seluruh dunia nyata.

Subteks di balik pengumuman ini mencerminkan pergeseran pasar fundamental. Saat ukuran model tumbuh 10x setiap tahun dan jumlah token inferensi berkembang 5x setiap tahun—sementara biaya per token turun 10x—industri komputasi menghadapi kendala baru: inferensi telah menjadi hambatan utama, bukan pelatihan. Seluruh arsitektur Vera Rubin NVIDIA, yang diumumkan 1,5 jam sebelumnya, dirancang berdasarkan realitas ini.

Enam Chip Kustom dalam Satu Rak: Superkomputer AI Vera Rubin Membayangkan Ulang Kepadatan dan Performa

Di inti perangkat keras terdapat NVIDIA Vera Rubin POD, superkomputer AI yang dirancang khusus mengintegrasikan enam chip proprietary yang bekerja secara sinkron. Filosofi desain bersama ini menandai pergeseran dari pendekatan modular yang mendefinisikan generasi sebelumnya. Sistem flagship, Vera Rubin NVL72, memuat 2 triliun transistor dalam satu rak, memberikan performa inferensi NVFP4 sebesar 3,6 EFLOPS—lima kali lipat dari generasi Blackwell sebelumnya.

Arsitektur ini terbagi sebagai berikut:

  • Vera CPU: Dibangun di sekitar 88 inti Olympus kustom dengan 176 thread teknologi Multithreading Ruang NVIDIA. Mendukung bandwidth NVLink-C2C sebesar 1,8TB/s, memungkinkan memori terpadu CPU-GPU yang mulus. Memori sistem mencapai 1,5TB—tiga kali lipat dari CPU Grace—dengan bandwidth LPDDR5X sebesar 1,2TB/s. CPU menggandakan performa pemrosesan data dan memperkenalkan komputasi rahasia tingkat rak, TEE pertama yang benar-benar mencakup domain CPU dan GPU.

  • Rubin GPU: Menjadi pusat perhatian dengan mesin Transformer yang memungkinkan inferensi NVFP4 sebesar 50 PFLOPS (5x Blackwell) dan pelatihan NVFP4 sebesar 35 PFLOPS (3,5x Blackwell). Mendukung memori HBM4 dengan bandwidth 22TB/s—2,8x dari generasi sebelumnya—penting untuk menangani model MoE (Mixture of Experts) yang besar. Kompatibilitas mundur memastikan migrasi mulus dari penerapan Blackwell yang ada.

  • NVLink 6 Switch: Kecepatan per-lane melonjak menjadi 400Gbps, mencapai bandwidth interkoneksi penuh per GPU sebesar 3,6TB/s (2x generasi sebelumnya). Total bandwidth antar-switch mencapai 28,8TB/s, dengan komputasi dalam jaringan yang mampu menghasilkan 14,4 TFLOPS pada presisi FP8. Sistem beroperasi dengan pendinginan cair 100%, menghilangkan batasan termal.

  • ConnectX-9 SuperNIC: Menyediakan bandwidth 1,6Tb/s per-GPU, sepenuhnya dapat diprogram dan didefinisikan perangkat lunak untuk beban kerja AI skala besar.

  • BlueField-4 DPU: NIC pintar dengan kecepatan 800Gbps yang dilengkapi CPU Grace 64-core dan ConnectX-9. Mengurangi beban jaringan dan penyimpanan sekaligus meningkatkan keamanan—memberikan performa komputasi 6x lipat dan bandwidth memori 3x dari generasi sebelumnya, dengan akses GPU-ke-penyimpanan 2x lebih cepat.

  • Spectrum-X 102.4T CPO: Switch optik yang dikemas bersama menggunakan teknologi SerDes 200Gbps, menyediakan 102,4Tb/s per ASIC. Konfigurasi kepadatan tinggi 512-port (800Gb/s per port) memungkinkan seluruh sistem beroperasi sebagai entitas terpadu daripada komponen terisolasi.

Waktu perakitan telah runtuh dari dua jam menjadi lima menit, sementara jendela pemeliharaan dihilangkan melalui arsitektur NVLink Switch tanpa downtime. Desain modular sistem ini, yang kini tanpa kabel dan tanpa kipas di tingkat baki komputasi, membuatnya 18x lebih cepat dalam perawatan dibanding generasi sebelumnya. Keuntungan operasional ini secara langsung mengurangi TCO pusat data dan meningkatkan waktu aktif.

Tiga Platform Khusus Serang Kendala Nyata Inferensi AI: Penyimpanan Konteks dan Throughput

Sementara kekuatan komputasi mentah meningkat 5x, inferensi menghadirkan masalah berbeda—yang tidak dapat diselesaikan hanya dengan siklus GPU mentah. NVIDIA memperkenalkan tiga produk terintegrasi untuk mengatasi celah ini, masing-masing menargetkan hambatan tertentu dalam dunia yang diukur oleh inferensi.

( Spectrum-X Ethernet Co-Packaged Optics: Jaringan sebagai Infrastruktur Penting

Switching jaringan tradisional mengkonsumsi daya besar dan memperkenalkan latensi yang merusak performa inferensi. Spectrum-X Ethernet CPO, berdasarkan arsitektur Spectrum-X dengan desain dua-chip, mencapai efisiensi energi 5x, keandalan 10x lebih tinggi, dan waktu aktif aplikasi 5x lebih baik. Sistem 512-port ini beroperasi pada 800Gb/s per port, dengan kapasitas total 102,4Tb/s.

Implikasinya langsung: lebih banyak token diproses per hari berarti biaya-per-token lebih rendah, yang pada akhirnya mengurangi TCO pusat data oleh faktor yang NVIDIA anggap sebagai transformasional bagi operator hyperscale.

) Platform Penyimpanan Memori Konteks Inferensi: Membuat Cache KV Praktis dalam Skala Besar

Beban kerja inferensi untuk sistem AI Agentic—dialog multi-putar, Retrieval-Augmented Generation ###RAG###, dan penalaran multi-langkah—memerlukan penyimpanan konteks yang persisten. Sistem saat ini menghadapi paradoks: memori GPU cepat tetapi terbatas; penyimpanan jaringan melimpah tetapi terlalu lambat untuk akses konteks jangka pendek. Platform Penyimpanan Memori Konteks Inferensi NVIDIA menjembatani celah ini dengan memperlakukan konteks sebagai tipe data utama dalam infrastruktur.

Didukung oleh BlueField-4 dan Spectrum-X, tingkat penyimpanan baru ini terhubung ke klaster GPU melalui interkoneksi NVLink khusus. Alih-alih menghitung ulang cache key-value di setiap langkah inferensi, sistem mempertahankannya dalam penyimpanan yang dioptimalkan, mencapai performa inferensi 5x lebih baik dan efisiensi energi 5x untuk beban kerja yang berat konteks. Untuk sistem AI yang berkembang dari chatbot tanpa status menjadi agen berstatus yang mampu menalar di antara jutaan token, penambahan arsitektur ini menghilangkan hambatan skala fundamental.

NVIDIA bekerja sama dengan mitra penyimpanan untuk mengintegrasikan platform ini langsung ke dalam penerapan berbasis Rubin, menjadikannya elemen inti dari infrastruktur AI turnkey daripada sebagai tambahan.

( DGX SuperPOD )Vera Rubin Edition###: Cetak Biru Pabrik untuk Inferensi Biaya-Optimal

DGX SuperPOD berfungsi sebagai arsitektur referensi NVIDIA untuk penerapan inferensi AI skala besar. Dibangun dari delapan sistem DGX Vera Rubin NVL72, memanfaatkan NVLink 6 untuk ekstensi jaringan vertikal, Spectrum-X Ethernet untuk penskalaan horizontal, dan Platform Penyimpanan Memori Konteks Inferensi untuk orkestrasi konteks. Seluruh tumpukan dikelola oleh perangkat lunak NVIDIA Mission Control.

Hasilnya: dibandingkan infrastruktur era Blackwell, pelatihan model MoE skala setara membutuhkan 1/4 jumlah GPU, dan biaya token untuk inferensi MoE besar turun menjadi 1/10. Bagi penyedia cloud dan perusahaan, ini adalah pengungkit ekonomi besar—beban kerja yang sama diproses dengan GPU yang jauh lebih sedikit, menghasilkan penghematan infrastruktur bernilai miliaran dolar dalam skala besar.

Nemotron, Blueprint, dan Percepatan Open-Source: Membangun Sistem AI Multi-Model, Multi-Cloud

Seiring pengumuman perangkat keras, NVIDIA mengumumkan ekspansi open-source terbesar mereka hingga saat ini. Pada 2025, perusahaan menyumbangkan 650 model open-source dan 250 dataset open-source ke Hugging Face, menjadikannya kontributor terbesar tunggal di platform tersebut. Metode utama menunjukkan penggunaan model open-source telah tumbuh 20 kali lipat dalam setahun terakhir, menyumbang sekitar 25% dari semua token inferensi.

Perusahaan memperluas keluarga Nemotron dengan model baru: sistem RAG agentic, model keselamatan khusus, dan model suara yang dirancang untuk aplikasi AI multimodal. Yang penting, NVIDIA mengirimkan ini bukan sebagai model terisolasi tetapi sebagai komponen dalam kerangka kerja yang disebut Blueprints.

Blueprints mewujudkan wawasan arsitektur utama yang Jensen Huang peroleh dari pengamatan Perplexity dan platform agen AI tahap awal: AI agentic tingkat produksi secara inheren bersifat multi-model, multi-cloud, dan hybrid-cloud secara alami. Kerangka ini memungkinkan pengembang untuk:

  • Mengarahkan tugas secara dinamis: model privat lokal untuk beban kerja sensitif latensi, model frontier cloud untuk kemampuan mutakhir
  • Memanggil API dan alat eksternal secara mulus (email sistem, antarmuka kontrol robot, layanan kalender)
  • Menggabungkan input multimodal—teks, suara, gambar, data sensor robot—menjadi representasi terpadu

Kemampuan ini, yang dulu merupakan abstraksi fiksi ilmiah, kini dapat diakses pengembang melalui integrasi SaaS NVIDIA dengan Blueprints. Implementasi serupa muncul di platform perusahaan termasuk ServiceNow dan Snowflake, menandai pergeseran menuju pemikiran tingkat sistem dalam AI perusahaan.

Implikasi strategis: NVIDIA secara bersamaan mendemokratisasi akses ke kemampuan AI frontier sambil memperkuat ekosistem perangkat lunaknya sebagai standar de-facto untuk pembangunan agen AI.

AI Fisik: Dari Simulasi ke Realitas—Alpha-Mayo dan Titik Infleksi Robotika

Setelah infrastruktur dan model terbuka, Huang beralih ke apa yang dia gambarkan sebagai perbatasan utama: AI fisik—sistem yang memahami dunia fisik, menalar tentangnya, dan menghasilkan tindakan secara langsung. Perpindahan ini mencerminkan epoch AI sebelumnya: AI perseptual, AI generatif, AI agentic. AI fisik mewakili tahap di mana kecerdasan memasuki sistem berwujud.

Huang menguraikan arsitektur tiga komputer untuk pengembangan AI fisik:

  1. Komputer pelatihan (DGX): Membangun model dasar
  2. Komputer inferensi (chip tertanam dalam robot/ kendaraan): Melaksanakan keputusan waktu nyata
  3. Komputer simulasi (Omniverse): Menghasilkan data sintetis dan memvalidasi penalaran fisik

Model dasar yang menjadi dasar tumpukan ini adalah Cosmos World Foundation Model, yang menyelaraskan bahasa, gambar, geometri 3D, dan hukum fisika untuk mendukung seluruh pipeline dari simulasi hingga deployment langsung.

( Alpha-Mayo: Mengemudi Otonom sebagai Titik Serang

Mengemudi otonom mewakili jendela penerapan skala besar pertama untuk AI fisik. NVIDIA merilis Alpha-Mayo, sebuah sistem lengkap yang terdiri dari model open-source, alat simulasi, dan dataset untuk pengembangan mengemudi otonom Level 4.

Alpha-Mayo beroperasi berdasarkan paradigma penalaran daripada perilaku belajar end-to-end murni. Model 10 miliar parameter ini memecah masalah menjadi langkah diskret, menalar kemungkinan, dan memilih trajektori teraman. Arsitektur ini memungkinkan kendaraan menangani kasus ekstrem yang belum pernah terjadi—seperti kegagalan lampu lalu lintas di persimpangan sibuk—dengan menerapkan penalaran yang dipelajari daripada pola yang dihafal.

Dalam penerapan dunia nyata, sistem menerima prompt teks, feed kamera surround-view, riwayat status kendaraan, dan input navigasi, menghasilkan trajektori mengemudi dan penjelasan bahasa alami dari penalaran tersebut. Transparansi ini penting untuk sertifikasi regulasi dan kepercayaan penumpang.

Mercedes-Benz CLA: NVIDIA mengonfirmasi bahwa Mercedes-Benz CLA baru, yang didukung oleh Alpha-Mayo, sudah dalam produksi dan baru-baru ini mendapatkan peringkat keselamatan tertinggi dari NCAP )New Car Assessment Program###. Kendaraan ini menawarkan mengemudi bebas tangan di jalan raya dan navigasi otonom perkotaan end-to-end, dengan kemampuan yang akan diluncurkan di pasar AS pada akhir 2026. Setiap baris kode, chip, dan komponen sistem telah menjalani sertifikasi keselamatan formal.

NVIDIA juga merilis:

  • Sebagian dataset yang digunakan untuk melatih Alpha-Mayo untuk penyempurnaan peneliti
  • Alpha-Sim, kerangka simulasi open-source untuk mengevaluasi kinerja Alpha-Mayo
  • Alat yang memungkinkan pengembang menggabungkan data nyata dan sintetis untuk aplikasi mengemudi otonom kustom

( Kemitraan Robotika dan Integrasi Industri

Selain transportasi, NVIDIA mengumumkan kolaborasi robotika luas. Perusahaan terkemuka—Boston Dynamics, Franka Robotics, Surgical, LG Electronics, NEURA, XRLabs, dan Logic Robotics—sedang membangun sistem berbasis NVIDIA Isaac )platform simulasi dan pengembangan### dan GR00T (model dasar untuk robotika).

Selain itu, NVIDIA mengungkapkan kemitraan strategis dengan Siemens. Kolaborasi ini mengintegrasikan pustaka CUDA-X NVIDIA, model AI, dan digital twin Omniverse ke dalam alat EDA, CAE, dan digital twin Siemens. Ini menempatkan AI fisik di seluruh siklus hidup mulai dari desain dan simulasi hingga operasi manufaktur dan deployment dunia nyata.

Strategi: Kecepatan Open Source Bertemu Lock-In Perangkat Keras

Keynote selama 1,5 jam ini merangkum strategi ganda NVIDIA menjelang era inferensi. Di satu sisi, perusahaan secara agresif membuka sumber model, dataset, dan alat pengembangan. Di sisi lain, ia membuat perangkat keras, interkoneksi, dan desain sistemnya semakin tak tergantikan melalui co-optimisasi mendalam.

Ini menciptakan siklus yang baik:

  • Model dan alat open-source mempercepat adopsi
  • Adopsi yang lebih luas mendorong permintaan untuk skala inferensi
  • Skala inferensi membutuhkan perangkat keras khusus NVIDIA untuk mencapai performa biaya-efektif
  • Seiring volume token bertambah, pelanggan menjadi terkunci ke infrastruktur NVIDIA

Filosofi desain tingkat sistem—dari interkoneksi NVLink 6 hingga Platform Penyimpanan Memori Konteks Inferensi—menjadikan sulit bagi pesaing untuk meniru keunggulan total biaya kepemilikan NVIDIA. Apa yang tampak sebagai NVIDIA “membuka” melalui Nemotron dan Blueprints sebenarnya memperkuat parit perusahaan dengan menjadikan platformnya pilihan utama bagi pengembang AI yang menginginkan fleksibilitas dan performa sekaligus.

Seiring industri AI beralih dari beban kerja yang didominasi pelatihan ke inferensi, strategi tertutup ini—dengan permintaan yang terus berkembang, pengurangan biaya token, dan lock-in infrastruktur—memperlebar parit ekonomi NVIDIA ke tingkat yang mungkin tak tertembus oleh pesaing yang berusaha mendapatkan pijakan di era inferensi dan AI fisik.

MAJOR-1,18%
IN59,31%
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan

Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)