Alphabet Inc.'s Google dilaporkan sedang dalam pembicaraan dengan Marvell Technology untuk mengembangkan dua chip baru yang dirancang untuk meningkatkan cara model kecerdasan buatan dijalankan.
Ringkasan
Menurut laporan dari The Information, dengan mengutip orang-orang yang mengetahui masalah tersebut, salah satu dari chip yang diusulkan bisa jadi adalah unit pemrosesan memori yang dibangun untuk bekerja bersama unit pemrosesan tensor Google, atau TPU. Chip kedua diharapkan menjadi TPU baru yang disesuaikan khusus untuk menjalankan beban kerja AI dengan lebih efisien.
Langkah ini merupakan bagian dari upaya Google untuk memposisikan chip internalnya sebagai alternatif dari GPU Nvidia. Adopsi TPU telah berkontribusi pada pertumbuhan pendapatan Google Cloud, karena perusahaan berupaya menunjukkan hasil dari belanja infrastruktur AI-nya.
Laporan tersebut menambahkan bahwa Google berencana menyelesaikan desain chip yang berfokus pada memori pada tahun depan sebelum beralih ke uji produksi. Pada saat yang sama, perusahaan telah memperluas kemitraan dengan para pembuat chip seperti Intel dan Broadcom untuk mendukung meningkatnya permintaan infrastruktur AI.
Saat Google meningkatkan pengembangan akselerator AI-nya, perusahaan ini dapat mulai menantang keunggulan Nvidia yang telah lama bertahan dalam komputasi berkinerja tinggi.
NVIDIA, misalnya, sedang mengembangkan jajaran chip inferensi AI-nya sendiri, termasuk desain yang menggabungkan teknologi dari Groq. Masuknya pesaing besar lainnya dapat mengintensifkan perlombaan dalam perangkat keras AI dan mengubah cara perusahaan mendapatkan daya komputasi untuk model.
Para investor kemungkinan akan mencari kejelasan lebih lanjut ketika Google melaporkan hasil kuartal pertamanya pada 29 April. Rilis pendapatan tersebut diharapkan memberikan sinyal mengenai kinerja cloud, tren periklanan, dan seberapa agresif perusahaan berencana berinvestasi dalam AI dan semikonduktor pada kuartal-kuartal mendatang.
Pembicaraan chip terbaru Google hadir saat perusahaan terus memperluas kemampuan model AI-nya. Awal bulan ini, perusahaan memperkenalkan Gemma 4, keluarga model terbuka baru yang dibangun untuk penalaran tingkat lanjut dan alur kerja berbasis agen.
Gemma 4 tersedia dalam empat ukuran dan dirancang untuk menangani logika multi-langkah serta pemecahan masalah terstruktur dengan lebih efektif. Model ini juga telah menghasilkan peningkatan kinerja dalam benchmark yang terkait dengan matematika dan tugas mengikuti instruksi.
Model-model tersebut mencakup fitur seperti native function calling, output JSON terstruktur, dan instruksi tingkat sistem, yang memungkinkan pengembang membangun sistem otonom yang dapat menghubungkan dengan API dan alat eksternal. Mereka juga dapat menghasilkan kode secara offline, mengubah mesin lokal menjadi asisten pengkodean AI yang mumpuni.
Secara keseluruhan, peningkatan pada model dan rencana pengembangan chip menunjukkan bagaimana Google menyelaraskan tumpukan perangkat lunak dan perangkat kerasnya saat persaingan di bidang AI terus mengintensifkan.
Artikel Terkait
Alibaba Qwen Membuka Layanan AI untuk Mitra Eksternal, China Eastern Airlines yang Pertama Mengintegrasikan
Microsoft Mengintegrasikan Claude Mythos Preview dari Anthropic untuk Mendeteksi Kerentanan Perangkat Lunak
Google Meluncurkan Chip AI Terpisah untuk Pelatihan dan Inferensi, Meningkatkan Kinerja 2,8x
Pendiri Liquid Capital: Kegagalan VC Kripto Berasal dari Ketidaksesuaian Web2; AI + Keuangan Membuka Peluang Baru
FTX Akan Memegang $114B dalam Aset Jika Pengelolaan Kepailitan Tidak Menjual Saham Anthropic, Solana, SpaceX
Pengiriman Nvidia H200 ke China Tertunda karena Persetujuan, Ketidaksepakatan Syarat