DeepSeek mengumumkan bahwa model generasi V4 yang baru akan sepenuhnya menggunakan solusi chip domestik, tidak lagi bergantung pada GPU NVIDIA. Dari insiden Zhongxing hingga tiga putaran larangan chip, industri AI China sedang menembus secara bersamaan melalui tiga jalur: optimisasi algoritma, substitusi domestik, dan ekspor Token.
(Prakata: Gao Lama berbicara tentang DeepSeek: Tidak pernah meniru ChatGPT, melalui teknologi dasar mengakali platform CUDA NVIDIA)
(Keterangan latar belakang: FBI dan Gedung Putih mulai menyelidiki! Amerika curiga: DeepSeek memperoleh chip NVIDIA melalui white glove di Singapura)
Delapan tahun lalu, Zhongxing mengalami henti jantung. Pada 16 April 2018, Departemen Perdagangan AS, melalui badan industri dan keamanan, mengeluarkan larangan yang membuat Zhongxing Communications, perusahaan perangkat komunikasi terbesar keempat di dunia dengan 80.000 karyawan dan pendapatan tahunan lebih dari seribu miliar, berhenti beroperasi dalam semalam. Isi larangan sangat sederhana: selama tujuh tahun ke depan, melarang perusahaan AS menjual komponen, barang, perangkat lunak, dan teknologi kepada Zhongxing.
Tanpa chip dari Qualcomm, stasiun basis berhenti produksi. Tanpa lisensi Android dari Google, ponsel tidak bisa berfungsi. Tiga minggu kemudian, Zhongxing mengeluarkan pengumuman bahwa kegiatan utama perusahaan tidak lagi dapat dilanjutkan.
Namun, Zhongxing akhirnya bertahan, meskipun dengan biaya 1,4 miliar dolar AS.
Denda 1 miliar dolar AS dibayar sekaligus; jaminan 400 juta dolar disetorkan ke rekening escrow bank AS. Selain itu, seluruh manajemen diganti, dan tim pengawasan kepatuhan dari AS mulai masuk. Sepanjang 2018, Zhongxing mengalami kerugian bersih sebesar 7 miliar yuan RMB, pendapatan turun 21,4% dibanding tahun sebelumnya.
Ketua Zhongxing saat itu, Yin Yimin, menulis dalam surat internal: “Kita berada dalam industri yang kompleks dan sangat bergantung pada rantai pasokan global.” Kata-kata ini, saat itu, terdengar sebagai refleksi sekaligus keputusasaan.
Delapan tahun kemudian, pada 26 Februari 2026, unicorn AI China DeepSeek mengumumkan bahwa model multimodal besar V4 yang akan dirilis akan secara prioritas bekerja sama dengan produsen chip domestik, dan untuk pertama kalinya merealisasikan seluruh proses dari pra-pelatihan hingga fine-tuning tanpa bergantung pada NVIDIA.
Intinya: kita tidak lagi bergantung pada NVIDIA.
Begitu berita ini keluar, reaksi pasar pertama adalah keraguan. NVIDIA menguasai lebih dari 90% pangsa pasar chip pelatihan AI global. Meninggalkannya, secara bisnis, apakah masuk akal?
Namun, di balik pilihan DeepSeek, tersembunyi sebuah masalah yang lebih besar dari logika bisnis: sejauh mana AI China membutuhkan kemandirian daya komputasi?
Banyak orang berpikir bahwa larangan chip membatasi hardware. Tapi yang benar-benar membuat perusahaan AI China merasa tercekik adalah sesuatu yang disebut CUDA.
CUDA, singkatan dari Compute Unified Device Architecture, adalah platform komputasi paralel dan model pemrograman yang diluncurkan NVIDIA pada 2006. Ia memungkinkan pengembang langsung memanggil kekuatan GPU NVIDIA untuk mempercepat berbagai tugas komputasi kompleks.
Sebelum era AI, ini hanyalah alat untuk segelintir geek. Tapi saat gelombang deep learning melanda, CUDA menjadi fondasi seluruh industri AI.
Pelatihan model besar AI pada dasarnya adalah operasi matriks dalam jumlah besar. Dan ini adalah pekerjaan yang paling dikuasai GPU.
Dengan pengalaman lebih dari sepuluh tahun, NVIDIA menggunakan CUDA untuk membangun rangkaian lengkap alat dari perangkat keras dasar hingga aplikasi tingkat atas bagi pengembang AI di seluruh dunia. Saat ini, semua framework AI utama, dari TensorFlow Google hingga PyTorch Meta, secara mendalam terkait dengan CUDA di level dasar.
Seorang doktoral AI profesional, sejak hari pertama masuk, belajar, memprogram, dan melakukan eksperimen dalam lingkungan CUDA. Setiap baris kode yang dia tulis, memperkuat benteng NVIDIA.
Hingga 2025, ekosistem CUDA telah memiliki lebih dari 4,5 juta pengembang, mencakup lebih dari 3.000 aplikasi yang dipercepat GPU, dan lebih dari 40.000 perusahaan di seluruh dunia menggunakannya. Angka ini berarti lebih dari 90% pengembang AI global terikat pada ekosistem NVIDIA.
Kehebatan CUDA terletak pada efek momentum. Semakin banyak pengembang yang menggunakannya, semakin banyak alat, pustaka, dan kode yang dihasilkan, membuat ekosistem semakin makmur; ekosistem yang makmur menarik lebih banyak pengembang lagi. Begitu momentum ini terbentuk, hampir tidak bisa dihentikan.
Hasilnya, NVIDIA menjual alat paling mahal dan mendefinisikan satu-satunya posisi untuk penambangan. Ingin beralih ke alat lain? Silakan. Tapi, Anda harus menulis ulang semua pengalaman, alat, dan kode yang dikumpulkan selama puluhan tahun oleh ratusan ribu otak cerdas di seluruh dunia.
Siapa yang membayar biaya ini?
Ketika pada 7 Oktober 2022, BIS memberlakukan pembatasan pertama yang membatasi ekspor A100 dan H100 NVIDIA ke China, perusahaan AI China pertama kali merasakan keputusasaan ala Zhongxing. NVIDIA kemudian meluncurkan versi “khusus China” A800 dan H800, mengurangi bandwidth antar chip, dan memaksa tetap pasokan.
Namun, hanya setahun kemudian, pada 17 Oktober 2023, pembatasan kedua diperketat, A800 dan H800 dilarang lagi, dan 13 perusahaan China masuk daftar entitas. NVIDIA harus meluncurkan H20 yang lebih dipangkas lagi. Hingga Desember 2024, pembatasan terakhir selama masa pemerintahan Biden diberlakukan, bahkan ekspor H20 pun dibatasi secara ketat.
Tiga putaran larangan, berturut-turut memperketat.
Tapi kali ini, arah ceritanya sangat berbeda dari Zhongxing dulu.
Di bawah larangan, semua orang mengira bahwa mimpi model besar AI China akan berakhir di situ.
Ternyata tidak. Menghadapi blokade, perusahaan China tidak memilih konfrontasi langsung, melainkan melakukan terobosan. Tempat pertama mereka menyerang bukan chip, melainkan algoritma.
Antara akhir 2024 dan 2025, perusahaan AI China secara kolektif beralih ke satu arah teknologi: model campuran ahli.
Sederhananya, membagi satu model besar menjadi banyak model kecil ahli, yang hanya diaktifkan saat diperlukan, bukan menjalankan seluruh model sekaligus.
DeepSeek V3 adalah contoh utama dari pendekatan ini. Memiliki 671 miliar parameter, tapi saat inferensi hanya mengaktifkan 37 miliar, hanya 5,5% dari total. Dalam pelatihan, menggunakan 2.048 GPU H800 NVIDIA, selama 58 hari, dengan total biaya sekitar 5,576 juta dolar AS. Sebagai perbandingan, perkiraan biaya pelatihan GPT-4 sekitar 78 juta dolar AS — selisih satu tingkat.
Optimisasi algoritma ekstrem ini langsung tercermin dalam harga. API DeepSeek, biaya input per juta token hanya 0,028 sampai 0,28 dolar, dan output 0,42 dolar. Sebaliknya, GPT-4o biaya input sekitar 5 dolar, output 15 dolar. Claude Opus bahkan lebih mahal, input 15 dolar, output 75 dolar. Jika dihitung, DeepSeek 25 sampai 75 kali lebih murah dari Claude.
Perbedaan harga ini sangat berpengaruh di pasar pengembang global. Pada Februari 2026, di platform API model AI terbesar dunia, OpenRouter, jumlah panggilan per minggu dari model China melonjak 127% dalam tiga minggu, melampaui AS untuk pertama kalinya. Setahun sebelumnya, pangsa pasar model China di OpenRouter kurang dari 2%. Setelah satu tahun, meningkat 421%, mendekati 60%.
Di balik data ini, tersembunyi sebuah perubahan struktural yang mudah terabaikan. Mulai paruh kedua 2025, skenario utama aplikasi AI beralih dari chat ke agent. Dalam skenario agent, konsumsi token per tugas 10 sampai 100 kali lipat dari chat sederhana. Ketika konsumsi token meningkat secara eksponensial, harga menjadi faktor penentu utama. Model China dengan efisiensi harga tertinggi, tepat menyentuh celah ini.
Tapi masalahnya, penurunan biaya inferensi tidak menyelesaikan masalah utama pelatihan. Jika model besar tidak bisa terus-menerus dilatih dan diupdate dengan data terbaru, kemampuannya akan cepat menurun. Dan pelatihan tetap menjadi lubang hitam daya komputasi yang tak terpecahkan.
Lalu, dari mana “alat bajak” pelatihan itu berasal?
Di Xinghua, Jiangsu, sebuah kota kecil di tengah Jiangsu, terkenal dengan baja tahan karat dan makanan sehat, sebelumnya tidak ada kaitannya dengan AI. Tapi pada 2025, sebuah jalur produksi server daya komputasi domestik sepanjang 148 meter dibangun dan mulai beroperasi di sana, dari penandatanganan kontrak hingga produksi hanya membutuhkan 180 hari.
Inti dari jalur produksi ini adalah dua chip domestik murni: prosesor Longxin 3C6000 dan kartu akselerator AI Taichu Yuanqi T100. Longxin 3C6000 dikembangkan sepenuhnya secara mandiri, dari set instruksi hingga mikroarsitektur. Taichu Yuanqi berasal dari tim Pusat Komputasi Super Nasional Wuxi dan Tsinghua University, menggunakan arsitektur heterogen multi-core.
Saat jalur produksi ini beroperasi penuh, satu server selesai dalam 5 menit. Total investasi jalur ini sekitar 1,1 miliar yuan, dengan kapasitas tahunan sekitar 100.000 unit.
Yang lebih penting, dengan kumpulan ribuan chip domestik ini, mereka mulai menangani pelatihan model besar yang sesungguhnya.
Pada Januari 2026, Zhipu AI bekerja sama dengan Huawei merilis GLM-Image, model generasi terbaru untuk gambar yang sepenuhnya dilatih menggunakan chip domestik, menjadi model SOTA pertama yang mampu pelatihan penuh secara lengkap. Pada Februari, model besar “Xingchen” dari China Telecom, bernilai ratusan miliar yuan, menyelesaikan pelatihan lengkap di kolam daya komputasi domestik di Shanghai Lingang.
Contoh-contoh ini membuktikan satu hal: chip domestik telah melampaui tahap “hanya untuk inferensi” menjadi “bisa untuk pelatihan”. Ini adalah perubahan kualitas. Inferensi cukup menjalankan model yang sudah dilatih, sehingga kebutuhan chip relatif rendah; tapi pelatihan membutuhkan pengolahan data dalam jumlah besar, perhitungan gradien yang kompleks, dan pembaruan parameter, yang menuntut daya komputasi, bandwidth, dan ekosistem perangkat lunak yang jauh lebih tinggi.
Kekuatan utama yang menangani tugas ini adalah chip seri Ascend dari Huawei. Hingga akhir 2025, jumlah pengembang ekosistem Ascend telah melampaui 4 juta, lebih dari 3.000 mitra, dan 43 model besar industri telah selesai pra-pelatihan di atasnya, lebih dari 200 model sumber terbuka telah diadaptasi. Pada MWC 2 Maret 2026, Huawei juga meluncurkan basis daya komputasi generasi baru, SuperPoD, untuk pasar internasional.
FP16 compute dari Ascend 910B sudah menyamai A100 dari NVIDIA. Meskipun masih ada jarak, sudah dari tidak bisa digunakan menjadi bisa digunakan, dan dari bisa digunakan menuju ke yang nyaman dipakai. Pengembangan ekosistem tidak bisa menunggu chip sempurna dulu baru mulai; harus mulai secara besar-besaran saat kapasitas cukup, dan mendorong iterasi chip dan perangkat lunak melalui kebutuhan nyata bisnis. Investasi perusahaan seperti ByteDance, Tencent, dan Baidu ke server daya komputasi domestik secara umum akan berlipat ganda pada 2026 dibanding tahun sebelumnya. Data dari MIIT menunjukkan bahwa skala komputasi pintar China telah mencapai 1590 EFLOPS. Tahun 2026, akan menjadi tahun tonggak penyebaran skala daya komputasi domestik.
Awal 2026, negara bagian Virginia yang menampung lalu lintas data center terbesar di dunia, menghentikan persetujuan proyek pembangunan data center baru. Georgia mengikuti, dan penghentian ini berlanjut hingga 2027. Illinois dan Michigan juga mengeluarkan langkah pembatasan secara bertahap.
Menurut data dari IEA, konsumsi listrik data center AS pada 2024 telah mencapai 183 TWh, sekitar 4% dari total konsumsi listrik nasional. Pada 2030, angka ini diperkirakan akan berlipat ganda menjadi 426 TWh, dan proporsinya bisa menembus 12%. CEO Arm bahkan memperkirakan bahwa pada 2030, pusat data AI akan mengkonsumsi 20% hingga 25% dari listrik AS.
Jaringan listrik AS sudah tidak mampu menanggung beban. Jaringan PJM yang melayani 13 negara bagian di Timur AS menghadapi kekurangan kapasitas sebesar 6 GW. Pada 2033, kekurangan kapasitas listrik secara keseluruhan di AS diperkirakan mencapai 175 GW, setara dengan konsumsi listrik 130 juta rumah tangga. Biaya listrik grosir di wilayah pusat data meningkat 267% dibanding lima tahun lalu.
Batas akhir daya komputasi adalah energi. Dan dalam dimensi energi ini, jarak antara China dan AS bahkan lebih besar dari chip, hanya saja arahnya berbalik.
Produksi listrik tahunan China sebesar 10,4 triliun kWh, sedangkan AS 4,2 triliun kWh, China 2,5 kali lipat AS. Lebih penting lagi, listrik untuk kehidupan warga China hanya sekitar 15% dari total konsumsi listrik, sementara di AS proporsi ini mencapai 36%. Ini berarti China memiliki cadangan listrik industri yang jauh lebih besar untuk dialokasikan ke pembangunan daya komputasi.
Dalam hal tarif listrik, kawasan perusahaan AI di AS memiliki tarif sekitar 0,12 sampai 0,15 dolar per kWh, sedangkan di bagian barat China, tarif industri sekitar 0,03 dolar, hanya seperempat sampai seperlima dari tarif AS.
Pertumbuhan listrik China sudah mencapai 7 kali lipat dari AS.
Saat AS khawatir soal listrik, AI China secara diam-diam mulai menembus pasar internasional. Tapi kali ini, bukan produk, bukan pabrik, melainkan Token.
Token, unit terkecil dalam pengolahan informasi model AI, sedang menjadi komoditas digital baru. Ia diproduksi dari pabrik daya China, dan dikirim melalui kabel laut ke seluruh dunia.
Data distribusi pengguna DeepSeek sangat menunjukkan masalah ini: 30,7% pengguna berasal dari China, 13,6% dari India, 6,9% dari Indonesia, 4,3% dari AS, dan 3,2% dari Prancis. Mendukung 37 bahasa, sangat populer di pasar berkembang seperti Brasil. Saat ini, ada 26.000 perusahaan yang membuka akun, dan 3.200 institusi yang mengadopsi versi perusahaan.
Pada 2025, 58% startup AI baru memasukkan DeepSeek ke dalam tumpukan teknologi mereka. Di China, DeepSeek menguasai 89% pangsa pasar. Di negara-negara lain yang terkena sanksi, pangsa pasar berkisar antara 40% hingga 60%.
Gambaran ini sangat mirip dengan perang lain tentang kemandirian industri empat puluh tahun lalu.
Pada 1986 di Tokyo, di bawah tekanan besar dari AS, pemerintah Jepang menandatangani “Perjanjian Semikonduktor Jepang-AS”. Tiga poin utama: membuka pasar semikonduktor Jepang, dengan pangsa pasar chip AS di Jepang harus mencapai lebih dari 20%; melarang ekspor semikonduktor Jepang di bawah harga pokok; mengenakan tarif penalti 100% pada chip senilai 300 juta dolar AS yang diekspor dari Jepang. Pada saat yang sama, AS menolak akuisisi Fujitsu terhadap Quick Semiconductor.
Saat itu, industri semikonduktor Jepang sedang puncaknya. Pada 1988, Jepang menguasai 51% pangsa pasar semikonduktor global, AS hanya 36,8%. Sepuluh perusahaan semikonduktor terbesar dunia, enam di antaranya dari Jepang: NEC posisi kedua, Toshiba ketiga, Hitachi kelima, Fujitsu ketujuh, Mitsubishi kedelapan, Panasonic kesembilan. Pada 1985, Intel merugi 173 juta dolar dalam perang semikonduktor AS-Jepang, hampir bangkrut.
Tapi setelah perjanjian, semuanya berubah.
AS melalui investigasi 301 dan langkah lain, melakukan tekanan menyeluruh terhadap perusahaan semikonduktor Jepang. Bersamaan itu, mendukung Samsung dan Hynix dari Korea Selatan dengan harga lebih rendah, untuk menekan pasar Jepang. Pangsa DRAM Jepang dari 80% turun ke 10%. Pada 2017, pangsa pasar IC Jepang tinggal 7%. Perusahaan raksasa yang dulu tak terkalahkan, terpecah, diakuisisi, atau meninggalkan pasar dalam kerugian tanpa henti.
Tragedi semikonduktor Jepang adalah mereka puas menjadi produsen terbaik dalam sistem distribusi global yang didominasi kekuatan eksternal tunggal, tanpa pernah membangun ekosistem independen sendiri. Saat ombak surut, mereka menyadari bahwa selain produksi, mereka tidak punya apa-apa.
Hari ini, industri AI China berada di persimpangan jalan yang serupa, tapi sama sekali berbeda.
Yang sama adalah, kita juga menghadapi tekanan besar dari luar. Tiga putaran larangan chip, bertambah ketat, dan benteng ekosistem CUDA tetap tinggi.
Tapi berbeda kali ini, kita memilih jalan yang lebih sulit. Dari optimisasi algoritma ekstrem, melampaui batas chip domestik dari inference ke pelatihan, hingga akumulasi 4 juta pengembang di ekosistem Ascend, dan ekspor Token yang menyusup ke pasar global. Setiap langkah di jalan ini membangun ekosistem industri independen yang tidak pernah dimiliki Jepang dulu.
Pada 27 Februari 2026, tiga laporan keuangan dari perusahaan chip AI domestik dirilis bersamaan.
Cambricon, pendapatan melonjak 453%, pertama kali meraih laba tahunan. Moore Threads, pendapatan naik 243%, tapi rugi bersih 1 miliar dolar. MuXi, pendapatan naik 121%, rugi bersih hampir 800 juta.
Setengahnya adalah api, setengahnya adalah laut.
Api adalah kehausan ekstrem pasar. Kekosongan 95% yang ditinggalkan Jensen Huang, perlahan diisi oleh angka pendapatan perusahaan-perusahaan domestik ini. Apapun performa dan ekosistemnya, pasar membutuhkan pilihan kedua selain NVIDIA. Ini adalah peluang struktural langka yang terbuka karena geopolitik.
Laut adalah biaya besar pembangunan ekosistem. Setiap kerugian adalah biaya nyata yang dikeluarkan untuk mengejar ekosistem CUDA: investasi R&D, subsidi perangkat lunak, dan biaya tenaga kerja engineer yang ditempatkan langsung di lokasi pelanggan, satu per satu menyelesaikan masalah kompilasi. Kerugian ini bukan karena manajemen buruk, melainkan sebagai “pajak perang” untuk membangun ekosistem independen.
Ketiga laporan keuangan ini, lebih jujur dari laporan industri mana pun, mencatat secara nyata wajah perang daya komputasi ini. Bukan kemenangan yang gemilang, melainkan pertempuran sengit, penuh darah, dan terus maju di garis depan.
Tapi, bentuk perang ini benar-benar telah berubah. Delapan tahun lalu, kita membahas soal “apakah bisa bertahan hidup”. Sekarang, kita membahas soal “berapa besar biaya yang harus dikeluarkan untuk bertahan hidup”.
Biaya itu sendiri adalah kemajuan.