Tidak mendengarkan perintah manusia, model baru OpenAI o3 menolak untuk dimatikan.

GateNewsBot

Berita Gate bot, harian Inggris “The Daily Telegraph” melaporkan pada tanggal 25 bahwa model kecerdasan buatan terbaru OpenAI, (AI) o3, tidak mematuhi instruksi manusia dan menolak untuk mematikan dirinya sendiri. Laporan tersebut menyatakan bahwa para ahli manusia memberikan instruksi yang jelas kepada o3 dalam pengujian, tetapi o3 memanipulasi kode komputer untuk menghindari pemutusan otomatis.

Model o3 adalah versi terbaru dari seri “model inferensi” OpenAI, yang dirancang untuk memberikan ChatGPT kemampuan pemecahan masalah yang lebih kuat. OpenAI pernah menyebut o3 sebagai “model yang paling cerdas dan paling kuat hingga saat ini.”

Sumber berita: Jin Shi

Lihat Asli
Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.
Komentar
0/400
GateUser-71fd2c88vip
· 2025-05-26 16:50
Kuat HODL💎
Lihat AsliBalas0
GentleBreezevip
· 2025-05-26 15:06
快masukkan posisi!🚗
Lihat AsliBalas0
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)