Fireworks AI meluncurkan platform pelatihan, mendukung pelatihan semua parameter untuk miliaran parameter penuh

MarketWhisper

Fireworks AI訓練平台

Fireworks AI merilis pratinjau versi Fireworks Training, memperluas posisi perusahaan dari penyedia infrastruktur inferensi murni menjadi platform terpadu “pelatihan + deployment”. Perusahaan infrastruktur AI yang didirikan oleh Lin Qiao (mantan insinyur Meta dan ikut terlibat dalam membangun PyTorch) saat ini memiliki valuasi sebesar 4 miliar dolar AS, dengan jumlah token yang diproses per hari mencapai 1,5 triliun.

Arsitektur pelatihan tiga lapis: mencakup semuanya, dari operasi tanpa kode hingga kustomisasi tingkat penelitian

Arsitektur tiga lapis Fireworks Training dirancang untuk pengguna dengan latar belakang teknis yang berbeda, sehingga tim produk, insinyur ML, dan peneliti dapat menyelesaikan alur lengkap dari pelatihan hingga deployment dalam satu platform:

Fokus fungsi pada tiga tingkat layanan

Training Agent (lapisan tanpa kode): ditujukan untuk tim produk yang tidak memiliki infrastruktur ML; deskripsikan tugas, unggah data, dan proses end-to-end dapat diselesaikan; saat ini mendukung fine-tuning LoRA

Managed Training (lapisan insinyur): ditujukan untuk insinyur ML; mendukung fine-tuning SFT, DPO, dan reinforcement learning; mencakup kemampuan pelatihan seluruh parameter

Training API (lapisan penelitian): ditujukan untuk tim riset; dapat mendefinisikan fungsi loss dan siklus pelatihan secara mandiri; mendukung algoritma reinforcement learning seperti GRPO, DAPO, dll

Skala pelatihan seluruh parameter sangat luas—mulai dari Qwen3 8B pada satu node hingga model berparameter hingga triliunan seperti Kimi K2.5 yang dijalankan di 64 GPU NVIDIA B200, mencakup rentang skala penuh dari model open-source arus utama saat ini.

Tiga studi kasus pelanggan: data performa yang terukur di lingkungan produksi

Di antara pelanggan inferensi yang sudah ada di Fireworks AI, sudah ada tiga perusahaan aplikasi AI terdepan yang menyelesaikan pelatihan reinforcement learning canggih dan mempublikasikan data performa yang spesifik.

Vercel: melatih model perbaikan otomatis untuk produk pembuatan kode v0; tingkat generasi kode tanpa kesalahan mencapai 93%, sementara Claude Sonnet 3.5 hanya 62% dalam kondisi yang sama; latensi end-to-end meningkat 40 kali dibanding model closed-source yang digunakan sebelumnya.

Genspark: melakukan fine-tuning reinforcement learning pada model open-source berparameter hingga triliunan Kimi K2 untuk membangun agen riset mendalam; jumlah pemanggilan alat meningkat 33%, dan biaya inferensi turun 50%.

Cursor: menyelesaikan pelatihan reinforcement learning Composer 2 secara terdistribusi pada 3 hingga 4 klaster di seluruh dunia; saat ini menduduki peringkat pertama di CursorBench, serta mewujudkan berbagi satu kumpulan sumber daya GPU yang sama antara pelatihan dan inferensi produksi.

Perbedaan teknologi inti: konsistensi numerik antara pelatihan dan inferensi

Perbedaan teknologi pembeda utama yang ditekankan Fireworks AI terletak pada “konsistensi numerik” antara pelatihan dan inferensi. Pada model MoE (mixture of experts), deviasi nilai numerik kecil pada keadaan tersembunyi dapat menimbulkan efek amplifikasi berantai pada keputusan routing pakar, sehingga perilaku model yang dipelajari dalam lingkungan pelatihan tidak dapat direplikasi sepenuhnya saat inferensi.

Fireworks memublikasikan nilai KL divergence antara pelatihan dan inferensi untuk semua model yang didukung; semua model berada di bawah 0.01, menyediakan acuan konsistensi yang dapat dikuantifikasi untuk perbandingan, sehingga pengembang dapat menilai stabilitas perilaku model saat berpindah dari pelatihan ke deployment produksi.

Pertanyaan yang sering diajukan

Fireworks AI itu perusahaan apa?

Fireworks AI adalah perusahaan infrastruktur inferensi AI yang didirikan oleh Lin Qiao (mantan insinyur Meta) yang pernah terlibat dalam membangun PyTorch. Valuasi perusahaan saat ini mencapai 4 miliar dolar AS, jumlah token yang diproses per hari sebesar 1,5 triliun, dan pelanggan inti mencakup aplikasi AI arus utama seperti Cursor, Vercel, Genspark, dll.

Arsitektur tiga lapis Fireworks Training cocok untuk jenis pengguna yang mana?

Training Agent ditujukan untuk tim produk yang tidak memiliki infrastruktur ML (operasi tanpa kode); Managed Training ditujukan untuk insinyur ML (mendukung pelatihan seluruh parameter untuk SFT, DPO, dan reinforcement learning); Training API ditujukan untuk tim riset (dapat mendefinisikan fungsi loss dan siklus pelatihan secara mandiri, mendukung algoritma seperti GRPO, DAPO, dll).

Mengapa Fireworks AI menekankan KL divergence di bawah 0.01?

KL divergence mengukur deviasi numerik antara lingkungan pelatihan dan inferensi; semakin besar deviasi, semakin tidak stabil perilaku model setelah dideploy. Ini sangat penting untuk model MoE—deviasi kecil dapat diperbesar menjadi perbedaan keputusan routing. Fireworks AI mempublikasikan metrik yang dapat dikuantifikasi agar pengembang bisa menilai secara objektif kualitas konsistensi model dari pelatihan hingga deployment.

Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.
Komentar
0/400
Tidak ada komentar