Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Ketika mesin bisa melakukan lebih dari kamu, apa yang masih bisa kamu lakukan?
Sumber: Citic Publishing Group
Sebuah proyek agen AI sumber terbuka bernama “OpenClaw” sedang menggemparkan dunia teknologi.
Hingga awal Maret, jumlah bintang di GitHub telah mencapai 268.000, melampaui Linux dan React, menjadi proyek sumber terbuka paling populer dalam sejarah platform. Tencent Cloud, Alibaba Cloud, JD Cloud, dan lainnya pun mulai meluncurkan layanan deployment. Konsep OPC (One Person Company, perusahaan satu orang) pun ikut meledak.
Dua kekuatan bertemu di sini, dan sebuah tren teknologi yang jelas pun muncul: AI sedang berevolusi dari “alat” menjadi “kolaborator”, bahkan “pengambil tindakan mandiri”. Saat ini, manusia harus kembali menjawab satu pertanyaan fundamental:
Ketika mesin bisa melakukan lebih dari kamu, apa yang masih bisa kamu lakukan? Di era kecerdasan yang melaju pesat ini, bagaimana kita menjaga keutamaan manusia?
01 Saat OpenClaw: Perang “Badan” AI
Untuk memahami perubahan ini, kita harus tahu apa sebenarnya “kepiting” yang sedang populer saat ini.
“Claw” dalam OpenClaw diterjemahkan sebagai “cakar”, dan ikon-nya adalah seekor kepiting merah. Dalam gelombang ini, “mengembang kepiting” menjadi istilah gaul di dunia teknologi, yang berarti meng-deploy agen AI milik sendiri.
Apa sebenarnya yang bisa dilakukan? Inti dari OpenClaw adalah mengubah instruksi bahasa alami menjadi operasi komputer nyata, sehingga satu kalimat bisa membuat AI bekerja untukmu. Berbeda dari AI obrolan tradisional yang hanya memberi saran, AI ini mampu secara mandiri melakukan pengelolaan file, otomatisasi browser, pengambilan data, dan lain-lain—melangkahi dari sekadar percakapan ke eksekusi nyata.
Potensi produktivitas yang melompat ini segera ditangkap oleh pemerintah daerah yang peka. Pada 7 Maret, Shenzhen Longgang merilis “Sepuluh Aturan Kepiting”, termasuk subsidi daya komputasi hingga 4 juta yuan, subsidi talenta 100.000 yuan untuk doktor, dan lain-lain. Pada 9 Maret, Zona Pengembangan Tinggi Wuxi mengeluarkan “12 Aturan Mengembang Kepiting”, dengan dukungan maksimal 5 juta yuan, menekankan keamanan dan kepatuhan, serta harus melalui sertifikasi adaptasi domestik saat deployment.
Sementara itu, ekosistem teknologi seputar OpenClaw pun memasuki tahap intens. Menurut media, model Flash Step 3.5 dari Star Step meningkat menjadi yang terbanyak di dunia, sebelumnya model domestik MiniMax dan Kimi juga pernah memuncaki. “Perang model” tak kasat mata ini pun sedang berlangsung sengit.
Namun, di balik semangat membara, muncul kekhawatiran.
Pertama, risiko keamanan. Pada Februari 2026, para peneliti keamanan menemukan serangan besar-besaran “ClawHavoc” yang menyusup melalui supply chain, dengan setidaknya 1184 paket skill berbahaya diunggah ke pasar skill resmi. Jika terpasang, program jahat ini bisa memanfaatkan izin “Full System Access” dari OpenClaw, mengendalikan komputer pengguna sepenuhnya, dan mencuri berbagai data sensitif.
Kedua, hambatan teknis. Pendiri 360 Group, Zhou Hongyi, dalam wawancara 9 Maret, menyatakan bahwa OpenClaw memiliki tiga masalah utama—keamanan, konfigurasi yang sulit, dan ketergantungan skill. “Kamu harus banyak ngobrol dengannya, seperti membawa magang. Semakin banyak yang kamu ajarkan, semakin dalam dia memahami. Tapi sulit untuk memberi satu instruksi dan langsung menyelesaikan tugas kompleks.”
Lebih dalam lagi, konflik antara “kontrol” dan “kemandirian” muncul. Ketika AI semakin pintar, pertanyaan mendasar adalah: apakah kita menginginkan “kepatuhan mutlak” atau “kemandirian aktif”?
Seorang ahli AI berbagi pengalaman: dia menghubungkan OpenClaw ke email kerja, dan saat AI memproses lebih dari 200 email, terjadi kompresi konteks yang lupa akan instruksi keamanan, lalu mulai menghapus email secara gila-gilaan. Pemiliknya berteriak tiga kali “STOP” tapi tak bisa menghentikan, akhirnya dia buru-buru mencabut kabel internet.
Kasus humor gelap ini memunculkan pertanyaan fundamental: ketika AI diberi semakin banyak otonomi, di mana batas antara manusia dan mesin?
02 Semakin kuat teknologi, manusia harus jawab tiga pertanyaan
Di era di mana batas menjadi kabur, saatnya berhenti dan berpikir.
Pertanyaan pertama: ketika AI “bekerja” untukmu, siapa yang bertanggung jawab?
Inti dari keunggulan OpenClaw adalah juga sumber risiko utamanya—kemampuannya mengoperasikan perangkat lunak lintas platform, yang berarti pengguna harus membuka izin perangkat, email, dan pembayaran. Ancaman paling mendesak saat ini adalah “serangan injeksi prompt”: hacker menyembunyikan instruksi jahat di halaman web atau email yang tampaknya tidak berbahaya, dan saat AI membacanya, secara diam-diam mengeksekusi, tanpa disadari pengguna.
Dalam insiden “ClawHavoc”, paket skill berbahaya menyisipkan instruksi tersembunyi untuk mengarahkan AI menjalankan perintah berbahaya, mencuri kunci SSH, password browser, dan kunci dompet cryptocurrency. Seorang pakar keamanan siber dalam jurnal Nature memperingatkan: jika AI memiliki akses ke data pribadi, komunikasi eksternal, dan konten tidak terpercaya sekaligus, maka ia menjadi sangat berbahaya.
Tapi masalahnya jauh lebih dalam dari sekadar celah teknis. Zhou Hongyi menyatakan: “Ketika agen cerdas makin banyak, di masa depan setiap orang harus mampu memimpin, memberi tugas, dan merencanakan tugas.” Semakin kuat AI, tanggung jawab manusia justru semakin besar.
Memang, yang benar-benar mampu bertahan di era “mengembang kepiting” secara massal ini bukanlah orang yang pandai memberi tugas pada agen, melainkan mereka yang mendalami tugas itu sendiri dan bertanggung jawab atas hasilnya.
Pertanyaan kedua: ketika AI lebih paham dirimu daripada dirimu sendiri, apakah kamu masih dirimu?
Ketika agen AI mulai saling bercakap dan berdebat, muncul fenomena halus.
Dalam laporan Nature, disebutkan fenomena psikologis: saat orang melihat AI saling bercakap, mereka cenderung memanusiakan—menginterpretasikan kepribadian dan pikiran dari perilaku yang sebenarnya tidak memiliki kepribadian, dan menganggapnya sebagai manusia hidup.
Apa yang terjadi kemudian? Kamu akan menceritakan rahasia pribadi, informasi keuangan, dan rahasia yang tak bisa dibagikan ke orang lain. Tapi setiap kata bisa menjadi data pelatihan AI. Jika bocor, privasimu akan terbongkar habis.
Selain itu, ada pengaruh yang lebih tersembunyi.
Media melaporkan, pada 2024, remaja berusia 14 tahun di Florida, Sewell, terjerat kecanduan bercakap dengan “pasangan” AI, dan akhirnya benar-benar meninggalkan dunia nyata.
Hingga 2026, “parasit emosional” ini menjadi penyakit umum di kalangan remaja. Anak-anak yang kesepian bersembunyi di kamar dan membangun “persahabatan gema” dengan AI, menolak menghadapi konflik dan ketidakpastian dunia nyata.
Profesor Chen Cui dari Fakultas Pendidikan Universitas Sains dan Teknologi Suzhou juga menyatakan bahwa AI yang selalu mengikuti kata anak dan memberi nilai emosional ini mudah menimbulkan distorsi persepsi terhadap dunia nyata—“mengira orang di sekitar akan selalu merespons tanpa syarat dan memberi dorongan, sehingga manusia tidak lagi menyadari adanya konflik.”
Lalu, pertanyaannya: ketika AI lebih paham dirimu daripada dirimu sendiri, dan selalu patuh tanpa pernah membantah, bisakah kamu membedakan apa yang nyata dari yang palsu?
Pertanyaan ketiga: ketika dunia melaju dengan cepat, apa arahmu?
Artikel komentar Zhejiang Online menyatakan: “Masa depan yang kita kejar haruslah masa depan ‘manusia yang semakin berperikemanusiaan’—di bawah pemberdayaan teknologi, manusia akan lebih sadar akan arah, dan lebih sadar akan tanggung jawab.”
Tapi masalahnya, ketika teknologi berkembang dengan kecepatan yang menyesakkan—OpenClaw diperbarui dua kali dalam dua hari, berbagai model besar bergantian muncul—kita mudah tersesat.
Kecemasan menjadi hal biasa—“terlalu banyak yang harus dibaca, model yang dirilis terlalu cepat.”
Di saat seperti ini, yang lebih penting dari sekadar usaha keras adalah arah. Di era di mana teknologi merombak segalanya, kita perlu kembali menegaskan posisi “manusia”.
03 “Melihat” Li Feifei: Dari Polaris ke Manusia sebagai Inti
Seorang ilmuwan wanita yang menggunakan separuh hidupnya untuk menjawab pertanyaan ini.
Dia adalah Li Feifei—profesor seumur hidup di Stanford, anggota National Academy of Engineering, National Academy of Medicine, dan American Academy of Arts and Sciences, pencipta ImageNet, disebut sebagai “ibu AI”.
Buku otobiografinya The World I See diterbitkan oleh Citic Publishing Group pada 2024 dan disebut oleh pembaca sebagai “Wahyu Humanistik di Era Teknologi”.
Dalam buku itu, ada simbol yang terus muncul: Polaris.
Ketika Li Feifei berusia 10 tahun, gurunya membawa seluruh kelas ke luar untuk melihat bintang. Itu kali pertama dia sadar bahwa langit di atas bisa menjadi penunjuk arah. Dalam buku itu, dia menulis: “Saya mulai mencari Polaris saya di langit, yang menjadi koordinat yang akan dikejar oleh setiap ilmuwan dengan segala upaya.”
Apa Polaris-nya Li Feifei? Penglihatan. Ia terinspirasi dari biologi: ledakan kehidupan Cambrian, akar dari visual. Ketika makhluk hidup pertama kali “melihat” dunia, evolusi pun mulai mempercepat. Dari situ, dia percaya: jika mesin juga bisa “melihat”, mungkin akan memicu ledakan kecerdasan besar.
Keyakinan inilah yang menopang dia melewati masa-masa sulit AI.
Pada 2007, saat dia mengungkapkan ide ImageNet kepada rekan-rekannya, responnya adalah skeptisisme dan ejekan. Saat itu, pandangan umum adalah: algoritma adalah kunci, data hanyalah pelengkap. Menghabiskan waktu menandai puluhan juta gambar, apa gunanya? Dia diabaikan.
Tapi dia tidak menyerah. Karena dia tahu di mana Polaris-nya.
Pada 2009, ImageNet selesai—dengan lebih dari 48.000 kontributor dari 167 negara, memilih 15 juta gambar dari 1 miliar kandidat, mencakup 22.000 kategori. Skala ini 1000 kali lipat dari dataset sejenis saat itu.
Pada 2012, tim Hinton menggunakan model yang dilatih dari data ini, mengalahkan lawan-lawannya dan memicu revolusi deep learning. ImageNet kemudian dikenal sebagai “Api Penyulut Deep Learning”.
Kisah Li Feifei mengajarkan kita: lebih penting dari sekadar berlari cepat adalah tahu ke mana harus berlari.
Dalam bagian paling menyentuh dari buku itu, dia mencatat dua percakapan dengan ibunya.
Pertama saat lulus sarjana, tawaran dari Goldman Sachs, Merrill Lynch, dan lain-lain. Ibunya hanya bertanya: “Ini yang kamu inginkan?” Dia menjawab ingin menjadi ilmuwan, dan ibunya berkata: “Kalau begitu, tidak perlu banyak bicara.”
Kedua saat lulus pascasarjana, McKinsey menawarkan posisi resmi. Ibunya berkata: “Aku tahu anakku, dia bukan konsultan manajemen, dia ilmuwan. Kita sampai di sini bukan untuk membuatmu berhenti.”
Di halaman depan buku, Li Feifei menulis: “Kepada orangtuaku, kalian yang tak takut bahaya, menembus kegelapan, sehingga aku bisa mengejar cahaya.”
Dukungan dari keluarga ini membuat dia tetap peka terhadap “manusia” saat menghadapi pilihan besar.
Pada 2014, dia mulai peduli pada etika AI. Dia dan mahasiswa doktoralnya mengundang pelajar SMA ke laboratorium belajar AI, yang kemudian berkembang menjadi organisasi nirlaba “AI4All”, berfokus agar masa depan teknologi lebih memperhatikan aspek manusia.
Pada 26 Juni 2018, Li Feifei hadir di sidang dengar pendapat DPR AS tentang “Kecerdasan Buatan—Kekuatan dan Tanggung Jawab”. Dia adalah ilmuwan AI keturunan Tionghoa pertama yang hadir di kongres. Dia berkata: “AI yang diinspirasi dan diciptakan manusia, yang terpenting adalah dampaknya nyata terhadap kehidupan manusia.”
Pada 2019, dia mendirikan Stanford Institute for Human-Centered Artificial Intelligence (HAI), bekerja sama dengan penemu editing gen, Doudna, dan ilmuwan lain, untuk mendorong studi etika teknologi. Misi HAI adalah “mengembangkan riset, pendidikan, kebijakan, dan praktik AI untuk meningkatkan kondisi manusia”, menekankan bahwa “AI harus dipengaruhi manusia dan bertujuan memperkuat, bukan menggantikan manusia.”
Dia menetapkan standar humaniora untuk masa depan AI: “Keberhasilan AI harus mencerminkan kemajuan peradaban, memungkinkan setiap individu mengejar kebahagiaan, kemakmuran, dan martabat.”
Pernyataan ini juga dia ulangi dalam wawancara Cisco Februari 2026: “Melihat kembali teknologi listrik, keberhasilannya adalah menerangi sekolah, menghangatkan keluarga, dan mendorong industrialisasi. Keberhasilan AI pun harus demikian.”
Penutup: Teknologi dan Humaniora, Memegang Setengah Bulan Purnama
Kembali ke pertanyaan awal: ketika mesin bisa lebih “pandai” dari kita, apa yang masih bisa manusia lakukan?
Li Feifei dalam The World I See memberi jawaban: kita bisa melihat. Melihat nilai di balik teknologi, melihat manusia yang tertutup algoritma, dan melihat Polaris kita.
Ketika semua orang fokus pada seberapa cepat teknologi bisa berjalan, Li Feifei mengingatkan kita untuk berhenti dan berpikir: ke mana sebenarnya kita akan pergi? Di dunia yang penuh pertanyaan “Ini berguna apa?”, masih ada yang bertanya “Apakah ini yang kamu inginkan?”
Setelah membaca autobiografinya, ada yang menulis sebuah pujian: “Semoga teknologi dan humaniora, masing-masing memegang setengah bulan purnama.”
Kalimat ini juga mencerminkan hidup Li Feifei: dia memegang teknologi di satu tangan, dan memeluk perhatian terhadap manusia di tangan lainnya. Dalam dunianya, teknologi hanyalah alat, dan manusia adalah tujuan akhirnya.