
Tim Xiaomi 大 model tim baş负责人 罗福莉 於 4 月 24 日在嗶哩嗶哩平台接受深度訪談(影片號:BV1iVoVBgERD),訪談時長 3.5 小時,為其首次以技術負責人身份公開系統性闡述技術觀點。羅福莉稱,大模型競爭賽道已從 Chat 時代轉入 Agent 時代,並指出「自進化」將是未來一年 AGI 關鍵事件。
Dari Era Chat ke Era Agent: Penilaian Teknologi Inti

(Sumber:嗶哩嗶哩)
Berdasarkan pernyataan Luo Fuli dalam wawancara Bilibili, ia menyebutkan bahwa pada tahun 2026, fokus persaingan model besar akan bergeser dari kualitas percakapan umum ke kemampuan eksekusi otonom yang berkelanjutan dalam tugas-tugas yang kompleks. Dalam wawancara tersebut, ia mengatakan bahwa saat ini model-model teratas telah mampu melakukan optimasi secara mandiri dalam tugas tertentu, dan terus menjalankan tugas dengan stabil selama 2 hingga 3 hari tanpa perlu intervensi manusia. Dalam wawancara itu, ia menekankan bahwa terobosan kemampuan “self-evolve” menandakan sistem AI mulai memiliki kemampuan koreksi diri, serta menyebutkan bahwa jalur teknis Anthropic dan variabel teknis seperti Claude Opus 4.6 akan berdampak pada ekosistem AI secara keseluruhan.
Penyesuaian Perbandingan Daya Hitung Xiaomi dan Evaluasi Kesenjangan Pre-train
Berdasarkan pengungkapan Luo Fuli dalam wawancara, Xiaomi telah melakukan penyesuaian besar pada strategi alokasi daya hitung. Ia menjelaskan bahwa perbandingan daya hitung yang lazim digunakan di industri adalah Pre-train:Post-train:Inference = 3:5:1, sedangkan strategi Xiaomi saat ini telah disesuaikan menjadi 3:1:1, yang secara signifikan memangkas proporsi pelatihan pasca, sekaligus meningkatkan alokasi sumber daya pada tahap inferensi.
Dalam wawancara tersebut, ia menjelaskan bahwa perubahan ini berasal dari kematangan strategi Agent RL Scaling, sehingga post-training tidak lagi memerlukan penumpukan daya hitung yang besar, dan peningkatan sumber daya pada sisi inferensi mencerminkan kebutuhan skenario penerapan Agent terhadap kemampuan respons secara real-time.
Terkait masalah kesenjangan generasi (generation gap) Pre-train untuk model besar di dalam negeri, Luo Fuli dalam wawancara menyatakan bahwa kesenjangan ini telah dipersingkat dari 3 tahun di masa lalu menjadi beberapa bulan; sementara fokus strategi saat ini bergerak ke arah Agent RL Scaling. Riwayat karier Luo Fuli meliputi Akademi DAMO Alibaba, Quant Huanfang, dan DeepSeek (developer inti DeepSeek-V2), dan pada November 2025 ia bergabung dengan Xiaomi.
Spesifikasi Teknis Seri MiMo-V2 dan Peringkat Open-Source
Berdasarkan pengumuman resmi Xiaomi pada 19 Maret 2026 mengenai seri MiMo-V2, kali ini sekaligus merilis tiga model:
MiMo-V2-Pro:Total parameter sekian, mengaktifkan parameter 42B, arsitektur perhatian campuran, dukungan konteks hingga jutaan, tingkat penyelesaian tugas 81%
MiMo-V2-Omni:Skenario Agent multimodal
MiMo-V2-TTS:Skenario sintesis suara
Berdasarkan pengumuman tersebut, MiMo-V2-Flash yang sudah dibuka sumbernya berada di peringkat kedua dalam daftar model open-source global, dengan kecepatan inferensi mencapai 3 kali DeepSeek-V3.2.
FAQ
Bagaimana Luo Fuli mendefinisikan “self-evolve”, dan mengapa ia menganggapnya sebagai peristiwa paling kunci bagi AGI?
Berdasarkan pernyataan wawancara Luo Fuli pada 24 April 2026 di Bilibili (BV1iVoVBgERD), ia menyebutkan bahwa saat ini model-model teratas sudah mampu melakukan optimasi mandiri dalam tugas tertentu dan menjalankan tugas dengan stabil selama 2 hingga 3 hari tanpa perlu intervensi manusia, serta mengkategorikan “self-evolve” sebagai peristiwa paling kunci dalam perkembangan AGI sepanjang tahun depan.
Penyesuaian konkret apa yang dilakukan Xiaomi pada rasio daya hitung, dan apa logika di baliknya?
Berdasarkan pengungkapan Luo Fuli dalam wawancara, rasio daya hitung Xiaomi telah disesuaikan dari Pre-train:Post-train:Inference = 3:5:1 yang lazim digunakan industri menjadi 3:1:1, sehingga proporsi post-training secara besar dipangkas; ia menjelaskan bahwa penyesuaian ini terjadi karena setelah strategi Agent RL Scaling menjadi matang, efisiensi post-training meningkat, serta karena kebutuhan skenario penerapan Agent terhadap kemampuan respons real-time di sisi inferensi.
Bagaimana peringkat open-source dan performa kecepatan MiMo-V2-Flash?
Berdasarkan pengumuman resmi Xiaomi pada 19 Maret 2026, MiMo-V2-Flash yang sudah dibuka sumbernya berada di peringkat kedua dalam daftar model open-source global, dengan kecepatan inferensi 3 kali DeepSeek-V3.2, dan tingkat penyelesaian tugas versi flagship MiMo-V2-Pro adalah 81%.
Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke
Penafian.
Artikel Terkait
Alibaba Meluncurkan Model AgenticQwen Open-Source: Versi 8B Mendekati Kinerja 235B melalui Dual Data Flywheels
Pesan Gate News, 27 April — Tim PAI Alibaba telah merilis dan membuka sumber AgenticQwen, sebuah model bahasa agen berskala kecil yang dirancang untuk aplikasi pemanggilan alat kelas industri. Model ini hadir dalam dua versi: 8B dan 30B-A3B. Dilatih melalui kerangka reinforcement learning "dual data flywheel" yang inovatif
GateNews1menit yang lalu
DeepSeek V4 Pro di Ollama Cloud: Claude Code terhubung satu klik
Berdasarkan cuitan Ollama, DeepSeek V4 Pro dirilis pada 4/24, sudah masuk ke direktori Ollama dalam mode cloud, dan hanya dengan satu perintah saja dapat memanggil alat seperti Claude Code, Hermes, OpenClaw, OpenCode, Codex, dll. V4 Pro1.6T parameter, 1M context, Mixture-of-Experts; penalaran cloud tidak mengunduh bobot ke lokal. Jika ingin menjalankan secara lokal, perlu mengambil bobot sendiri dan menjalankannya dengan INT4/GGUF serta GPU multi-kartu. Pengujian kecepatan awal dipengaruhi oleh beban pada sisi cloud; kecepatan biasanya sekitar 30 tok/s, dengan puncak 1,1 tok/s; disarankan menggunakan prototipe cloud, dan setelah siap produksi massal barulah menjalankan inferensi sendiri atau menggunakan API komersial.
ChainNewsAbmedia45menit yang lalu
UB (Unibase) naik 14,96% dalam 24 jam terakhir
Berita Gate, 27 April, menurut data harga Gate, hingga saat artikel ini diterbitkan, UB (Unibase) saat ini diperdagangkan di $0.0491, naik 14,96% dalam 24 jam terakhir, menyentuh harga tertinggi di $0.0534, dan terendah turun ke $0.0423, dengan volume perdagangan 24 jam mencapai $3.9667 juta. Kapitalisasi pasar saat ini sekitar $123 juta.
Unibase adalah lapisan memori AI terdesentralisasi berperforma tinggi yang menyediakan memori jangka panjang dan interoperabilitas lintas platform untuk agen AI, sehingga memungkinkan mereka untuk mengingat, berkolaborasi, dan berevolusi secara mandiri. Unibase bertujuan membangun internet terbuka untuk agen, mendukung kolaborasi tanpa hambatan antar agen cerdas di berbagai ekosistem, serta memberdayakan pengembang untuk membangun aplikasi AI generasi berikutnya.
Berita ini tidak merupakan nasihat investasi; investasi memiliki risiko fluktuasi pasar yang perlu diperhatikan.
GateNews50menit yang lalu
Guo Mingchi: OpenAI ingin membuat ponsel AI Agent, MediaTek, Qualcomm, dan Luxshare Precision menjadi rantai pasokan kunci
Guo Mingchi mengklaim bahwa OpenAI sedang bekerja sama dengan MediaTek, Qualcomm, dan Luxshare Precision untuk mengembangkan ponsel AI Agent, dengan produksi massal diperkirakan pada 2028. Ponsel baru akan berpusat pada penyelesaian tugas; AI agen akan memahami dan menjalankan kebutuhan, menggabungkan komputasi di cloud dan di perangkat, dengan fokus pada sensor dan pemahaman konteks. Daftar spesifikasi dan rantai pasokan diperkirakan akan ditetapkan pada 2026–2027; jika rencana ini terwujud, atau akan membawa siklus ganti ponsel baru untuk pasar kelas atas, Luxshare berpeluang menjadi penerima manfaat utama.
ChainNewsAbmedia1jam yang lalu
Tencent Cloud QClaw mengintegrasikan ke dalam framework Hermes, mendukung peralihan multi-model seperti DeepSeek-V4 Pro
Berdasarkan pengumuman resmi Tencent Cloud pada 27 April, alat desktop QClaw untuk Tencent Cloud AI Agent secara resmi merilis versi v0.2.14. Tencent Cloud menyatakan bahwa ini adalah peningkatan versi terbesar yang pernah dilakukan untuk QClaw sejauh ini; pembaruan inti mencakup integrasi kerangka kerja Hermes Agent, peningkatan model lapisan dasar menjadi mode bebas untuk beralih, serta peningkatan penuh “Inspiration Plaza” menjadi “Expert Plaza”.
MarketWhisper1jam yang lalu
Suara xAI Grok mengambil alih hotline layanan pelanggan Starlink, 70% panggilan masuk otomatis ditutup
Berdasarkan pengumuman resmi xAI pada 23 April, xAI meluncurkan agen AI suara Grok Voice Think Fast 1.0, dan telah dideploy di hotline layanan pelanggan Starlink +1 (888) GO STARLINK. Berdasarkan data uji nyata yang diungkap dalam pengumuman, 70% panggilan telepon ditutup secara otomatis oleh AI, tanpa perlu intervensi manusia.
MarketWhisper1jam yang lalu