Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
CEO Nvidia Jensen Huang tentang apa yang akan datang untuk ledakan AI
Sebelum Jensen Huang bahkan tiba di pintu masuk jaket kulitnya di GTC tahun ini, Nvidia $NVDA sudah mulai menjual mitos tersebut. Soundtrack pra-acara terdengar mencurigakan seperti dibuat khusus untuk sebuah penobatan — lirik tentang hal-hal menakjubkan yang datang tepat waktu, legenda yang sedang dibuat, masa depan yang muncul tepat sesuai jadwal; lagu-lagu bahkan yang tidak bisa dikenali Shazam. (Demo AI pertama hari itu mungkin saja adalah playlist-nya.) Setengah ruangan mengangkat ponsel mereka untuk menyambut Huang seperti Silicon Valley telah memesan pertunjukan arena sendiri. Untuk satu sore, arena San Jose Sharks milik kekuatan yang berbeda. Karena Huang naik ke panggung dan melakukan apa yang paling dia kuasai: mengubah keynote produk menjadi sidang zonasi untuk masa depan.
Pendiri Nvidia membuka GTC dengan menjanjikan tur melalui “setiap lapisan” AI, lalu menghabiskan beberapa jam berikutnya berargumen bahwa perusahaan ini tidak hanya menjual chip ke pasar yang sedang panas. Tidak. Perusahaan ingin mendefinisikan seluruh infrastruktur ekonomi AI: komputasi, jaringan, penyimpanan, perangkat lunak, model, pabrik, dan — karena kehalusan sudah jelas tidak musimnya — mungkin bahkan pusat data (masih teoretis) di luar angkasa.
Keynote menyebar pengumuman ke segala arah, tetapi pesan utamanya lebih terfokus. Huang ingin investor, pelanggan, dan pesaing mendengar empat hal dengan jelas: permintaan AI masih meningkat cukup cepat untuk membenarkan pengeluaran yang luar biasa; inferensi kini menjadi pusat medan perang; agen harus keluar dari chatbot dan masuk ke mesin sehari-hari kantor; dan setelah emas digital AI, mungkin ada emas fisik AI, di mana robot, sistem otonom, dan perangkat lunak industri membakar lebih banyak data dan infrastruktur. Kamu tidak bisa mengeja Nvidia tanpa AI.
Huang memulai di tempat dia biasanya memulai saat pasar mulai bertanya-tanya apakah parit Nvidia suatu saat bisa bocor: perangkat lunak. Dia menghabiskan awalnya mengingatkan semua orang bahwa CUDA berumur 20 tahun, bahwa basis terpasang Nvidia berada “di setiap cloud” dan “setiap perusahaan komputer.” Perisai terkuat Nvidia tetaplah ekosistem perangkat lunak yang membungkus silikon, bukan kotak hijau itu sendiri.
Logika itu membentuk sisa pidatonya. Huang menyoroti data terstruktur, menyebutnya sebagai “kebenaran dasar” dari komputasi perusahaan, dan mengatakan bahwa AI akhirnya dapat memanfaatkan lautan informasi tidak terstruktur — PDF, video, suara, semua barang bekas perusahaan yang telah disimpan selama bertahun-tahun tanpa benar-benar tahu cara mencari atau memonetisasi. Waspadalah, dunia; Nvidia juga ingin mengklaim database.
GTC tidak lagi hanya tentang chip yang lebih cepat dan lebih baik. Pidato besar tahun ini tentang upaya Nvidia menjadi perusahaan yang menguasai ekonomi kerja AI itu sendiri — chip, penyimpanan, jaringan, lapisan orkestrasi, kembar digital, politik model terbuka, runtime agen, dan apa pun yang datang setelah pusat data saat Bumi mulai terasa sesak. GTC 2026 adalah keynote inferensi, keynote agen, dan keynote pabrik AI, dengan perangkat keras sebagai bukti bukan plot.
Yah, itu angka besar
Flex terbesar Huang adalah angka. Dia menandai ulang tahun ke-20 CUDA, menyebutnya sebagai roda penggerak di balik komputasi yang dipercepat, mengatakan permintaan komputasi telah meningkat “1 juta kali lipat dalam beberapa tahun terakhir,” dan meningkatkan taruhan dengan mengatakan dia sekarang melihat peluang pendapatan minimal $1 triliun dari 2025 hingga 2027, naik dari angka $500 miliar yang sebelumnya dia kaitkan dengan Blackwell dan Rubin hingga 2026. Saham Nvidia ditutup naik 1,6% hari Senin, yang terdengar seperti persetujuan tanpa konversi penuh.
Angka itu — dan kerangka Huang — mungkin memang menjadi prinsip pengorganisasian keynote. Nvidia ingin investor dan pelanggan mendengar, secara terbuka dan keras, bahwa pembangunan ini masih awal, masih meluas, dan masih cukup besar untuk membuat pengeluaran saat ini terlihat seperti uang muka. Angka itu juga melakukan pekerjaan pembersihan diam-diam. Nvidia telah menghabiskan berbulan-bulan menjawab pertanyaan-pertanyaan biasa yang muncul setiap kali sebuah perusahaan menjadi kasir utama dalam pesta pengeluaran modal: Berapa lama ini bisa bertahan? Apa yang terjadi saat hyperscalers menemukan agama tentang biaya? Berapa banyak fase berikutnya yang bocor ke chip kustom dan alternatif yang lebih murah?
Jawaban Huang adalah memperlebar lensa — membuat pasar menjadi lebih besar dan beban kerja menjadi lebih rumit. Dia mengatakan “inflexi inferensi telah tiba,” dan membangun bagian tengah dari keynote berdasarkan argumen sederhana: AI sekarang bisa melakukan pekerjaan produktif. Dan begitu itu terjadi, gambaran permintaan berubah. Melatih model besar dan mengaguminya tidak akan pernah menjadi tahap akhir. Semua itu beralih ke produksi, di mana meter tidak pernah berhenti berjalan.
Ini — ini! — adalah pendapatanmu, katanya, mengubah pusat data menjadi uang dan tagihan listrik menjadi takdir. Nvidia sibuk mempromosikan realitas yang sangat meningkat sehingga hampir bisa ditagih, dan ruangan masih penuh orang yang mencoba memutuskan apakah demo itu transenden atau hanya sedikit lebih mahal.
Token ada di mana-mana dalam keynote — dalam video pembuka, dalam grafik performa, dalam argumen ekonomi. Intinya, masa depan nilai AI terletak pada menghasilkan output yang berguna secara terus-menerus, yang berarti inferensi menjadi bagian dari tumpukan di mana biaya, latensi, dan throughput mulai benar-benar penting. Huang mempromosikan ketergantungan. Dia ingin pelanggan berpikir dalam kampus gigawatt, rak terintegrasi, anggaran megawatt, dan kurva throughput token, bukan dalam server yang bisa mereka campur dan cocokkan sesuka hati.
Inferensi menjadi pusat perhatian
Mungkin salah satu garis paling tajam dari keynote juga yang paling sederhana: “Inflexi inferensi telah tiba.” Nvidia tahu dunia semakin tertarik pada perangkat keras inferensi yang lebih murah dan ramping. Baik. Mereka juga ingin menjual itu.
Huang membagi inferensi menjadi dua tahap — prefill dan decode — dan menyusun sistem di mana chip Vera Rubin Nvidia menangani pekerjaan prefill, sementara silikon dari Groq menangani decode, langkah yang benar-benar mengeluarkan jawaban. Itu penting; inferensi adalah tempat bab berikutnya Nvidia menjadi lebih rumit. Pelatihan membuat perusahaan kaya. Melayani ratusan juta pengguna secara real-time adalah tempat pelanggan mulai bertanya tentang biaya, latensi, dan apakah mereka benar-benar membutuhkan silikon yang sama untuk setiap langkah.
Jawaban Huang adalah klasik Nvidia. Jangan membela GPU secara terpisah; telan seluruh tumpukan. Dia menggambarkan Vera Rubin sebagai “lompatan generasi” yang dibangun di sekitar tujuh chip dan lima sistem rak skala, dengan Nvidia mengklaim platform ini dapat melatih model campuran pakar besar dengan seperempat jumlah GPU dibanding Blackwell dan memberikan throughput inferensi hingga 10 kali lipat per watt dengan biaya per token sepersepuluhnya. Dia juga menggunakan keynote untuk melihat ke masa depan platform Feynman, karena di Nvidia, generasi berikutnya selalu berdiri di sayap sebelum generasi saat ini selesai membungkuk.
Huang tidak mempromosikan bagian yang lebih cepat, melainkan ketergantungan yang lebih besar. Nvidia mengumumkan desain referensi pabrik AI Vera Rubin DSX, alat simulasi DSX untuk merencanakan pabrik AI sebelum dibangun, dan menu komponen penyimpanan, jaringan, dan sistem yang lebih luas yang dirancang beroperasi sebagai mesin terintegrasi secara vertikal. Pesan utamanya jelas: Berhenti memikirkan server, mulai memikirkan kampus. Atau, jika Nvidia, mulai kirim faktur seperti utilitas.
Agen meninggalkan panggung demo
Jika pitch perangkat keras tentang menjaga Nvidia tetap di pusat inferensi, pitch perangkat lunak adalah memastikan AI perusahaan tidak menjadi pesta orang lain. Huang mengatakan “100% Nvidia” sekarang menggunakan Claude Code, Codex, dan Cursor; orang tidak lagi bertanya siapa dan apa dan kapan dan di mana dan bagaimana tentang AI. Mereka memintanya untuk menciptakan. Untuk melakukan. Maaf, perusahaan chatbot — AI sekarang diperlakukan lebih sebagai sistem kerja daripada sekadar keisengan percakapan.
Huang menghabiskan hari untuk memastikan bahwa sistem kerja itu berjalan di seluruh tumpukan Nvidia. Perusahaan meluncurkan OpenClaw dan NemoClaw untuk komunitas OpenClaw — bekerja sama dengan perusahaan yang terlalu tren — mendorong Toolkit Agen dan runtime OpenShell, dan mengandalkan AI-Q, yang dimaksudkan untuk mengarahkan kueri dan mengurangi biaya lebih dari 50% melalui campuran hibrida model frontier dan model terbuka Nvidia.
Ada perlindungan strategis tersembunyi di balik semua keterbukaan itu.
Nvidia meluncurkan Nemotron Coalition bersama Black Forest Labs, Cursor, LangChain, Mistral, Perplexity, Reflection AI, Sarvam, dan Thinking Machines Lab, dengan proyek pertama yang akan mendukung keluarga model Nemotron 4 yang akan datang. Bacalah subteksnya, dan cukup jelas bahwa Nvidia tidak ingin masa depan perangkat lunak AI terbagi rapi antara beberapa vendor model tertutup raksasa dan tumpukan perangkat keras komoditas di bawahnya. Mereka juga ingin berperan di lapisan model terbuka — bagian yang menentukan siapa yang bisa membangun, menyetel, dan memiliki AI di luar tembok laboratorium terbesar.
Gagasan kekaisaran menjadi lebih besar
Dan kemudian, karena Huang tidak pernah menemui metafora yang tidak bisa dia tingkatkan, keynote menyebar keluar dari pusat data ke hampir setiap industri terkait yang bisa ditemukannya.
Huang telah memperluas cerita Nvidia di luar asisten digital selama beberapa waktu, dan GTC tahun ini mendorong tema itu lebih keras lagi. Nvidia mengumumkan Blueprint Pabrik Data AI Fisik bersama Microsoft $MSFT Azure dan Nebius yang dimaksudkan untuk mengotomatisasi bagaimana data pelatihan dihasilkan, ditambah, dan dievaluasi untuk robotika, agen AI visi, dan kendaraan otonom. Pesan utamanya cukup sederhana: Data dunia nyata langka, kasus pinggirannya menjengkelkan, dan data sintetis plus simulasi dapat mengubah komputasi menjadi bahan mentah yang dibutuhkan sistem ini.
Huang juga menampilkan preview GR00T N2, model dasar robot generasi berikutnya berbasis riset DreamZero yang dikatakan perusahaan mampu menggandakan keberhasilan dibanding model VLA terkemuka dalam tugas baru di lingkungan baru. Chatbot membuat Wall Street bersemangat. AI fisik adalah bagian yang bisa menjaga pesta infrastruktur tetap berlangsung selama bertahun-tahun, karena robot, sistem industri, dan mesin otonom tidak hanya membutuhkan model — mereka membutuhkan data pelatihan tak berujung, simulasi, jaringan, sensor, dan komputasi tepi.
Huang bahkan membawa Olaf dari Disney $DIS ke panggung, sebuah bagian kecil dari teater AI fisik yang menyampaikan poin utama dengan lebih bersih daripada slide arsitektur lain yang benar-benar bisa dilakukan. Nvidia mengatakan Disney telah melatih Olaf dan droid BDX-nya dengan simulator fisika yang dipercepat GPU berbasis kerangka Nvidia Warp dan terintegrasi ke Newton, dan Olaf akan debut di Disneyland Paris pada 29 Maret.
Nvidia juga memastikan kendaraan otonom tetap berada di kartu bingo semua orang. Perusahaan mengatakan BYD, Geely, Isuzu, dan Nissan membangun kendaraan Level 4 yang siap di stack DRIVE Hyperion-nya, sementara Uber $UBER dijadwalkan meluncurkan robotaxi berbasis Nvidia di Los Angeles dan San Francisco pada paruh pertama 2027 sebelum memperluas ke 28 pasar pada 2028. Otonomi hampir terlalu cocok dengan argumen Huang yang lebih luas: fase berikutnya AI akan bergerak melalui dunia fisik, yang berarti lebih banyak sensor, simulasi, jaringan, komputasi tepi, dan, dengan nyaman untuk Nvidia, perangkat keras yang lebih mahal di mana-mana.
Huang bahkan membawa cerita besar dan lebih baik satu langkah lebih jauh dan mengatakan Nvidia akan ke luar angkasa, dengan sistem berbasis Vera Rubin yang akan datang yang ditujukan untuk pusat data orbit dan operasi ruang otonom. Tentu, itu terdengar seperti orang yang baru saja menemukan bahwa masih ada beberapa sektor yang belum tersentuh. Tapi itu juga terdengar seperti perusahaan yang bertekad menjadikan “infrastruktur AI” berarti hampir semua mesin mahal yang terlihat. Nvidia tetap raja chip, tentu. Tapi Huang tidak lagi terdengar sangat tertarik pada gelar itu sendiri. Perusahaannya berusaha naik tingkat dari pemasok chip menjadi arsitek pabrik, vendor sistem operasi, dan pengumpul tol untuk dunia di mana AI melakukan lebih banyak pekerjaan dan pusat data yang terbatas daya menjadi mesin penghasil pendapatan yang diukur dalam token per watt.
Sampai Huang selesai, keynote terasa lebih besar dari kalender peluncuran. Ia seperti peta kekaisaran. Ya, ada DLSS 5 untuk grafis, perangkat lunak industri baru, kemitraan tepi telekomunikasi, dan banjir perangkat pengembang. Tapi pesan yang tahan lama dan jauh lebih besar adalah: Nvidia ingin AI berhenti dipahami hanya sebagai kategori perangkat lunak dan mulai diperlakukan sebagai proyek infrastruktur skala utilitas, dengan perangkat keras dan perangkat lunak Nvidia tertanam di setiap lapisan.
Itulah pesan Jensen Huang yang sangat khas. Bagian yang mengganggu bagi pesaing adalah bahwa, setidaknya untuk saat ini, dia masih memiliki banyak pelanggan yang bersedia membangun di sekitarnya.