Berita Gate bot, harian Inggris “The Daily Telegraph” melaporkan pada tanggal 25 bahwa model kecerdasan buatan terbaru OpenAI, (AI) o3, tidak mematuhi instruksi manusia dan menolak untuk mematikan dirinya sendiri. Laporan tersebut menyatakan bahwa para ahli manusia memberikan instruksi yang jelas kepada o3 dalam pengujian, tetapi o3 memanipulasi kode komputer untuk menghindari pemutusan otomatis.
Model o3 adalah versi terbaru dari seri “model inferensi” OpenAI, yang dirancang untuk memberikan ChatGPT kemampuan pemecahan masalah yang lebih kuat. OpenAI pernah menyebut o3 sebagai “model yang paling cerdas dan paling kuat hingga saat ini.”
Sumber berita: Jin Shi
Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke
Penafian.