Gedung Putih menghadapi Anthropic! Membuka akses penuh ke Claude militer "Jika tidak, pemutusan kontrak dan keluar"

動區BlockTempo

Menurut laporan eksklusif Axios, Pentagon sedang mempertimbangkan untuk menghentikan kerja sama dengan Anthropic karena perusahaan AI ini bersikeras membatasi penggunaan Claude untuk keperluan militer, menolak membuka dua bidang utama: pengawasan massal dan senjata otonom penuh. Perlu dicatat bahwa OpenAI, Google, dan xAI telah menyetujui ketentuan “semua penggunaan yang sah” dari Pentagon, menjadikan Anthropic satu-satunya dari empat laboratorium AI besar yang tetap berpegang teguh.

(Latar belakang: Misi baru Elon Musk “Basis Bulan Alpha”: Membangun pabrik AI di bulan dan meluncurkannya ke sistem tata surya menggunakan peluncur raksasa)

(Konteks tambahan: Ketakutan AI dan PHK! Eksekutif Microsoft memperingatkan: Sebagian besar pekerja kerah putih akan digantikan otomatis dalam “12-18 bulan ke depan”)

Daftar Isi Artikel

  • Dua garis merah Anthropic: larangan pengawasan massal, larangan senjata otonom
  • Serangan mendadak Maduro memicu ketegangan
  • Tiga raksasa lainnya “tidak keberatan”

Menurut sumber yang dikutip Axios dari pejabat pemerintah senior, Pentagon mendesak keempat laboratorium AI terkemuka (OpenAI, Google, xAI, Anthropic) untuk mengizinkan militer menggunakan alat mereka untuk “semua penggunaan yang sah” (all lawful purposes), termasuk pengembangan senjata, pengumpulan intelijen, dan operasi di medan perang yang paling sensitif.

Permintaan ini berasal dari “Memorandum Strategi Kecerdasan Buatan Departemen Pertahanan” yang diterbitkan Pentagon pada 9 Januari tahun ini. Dokumen tersebut secara tegas menginstruksikan agar dalam 180 hari, ketentuan “semua penggunaan yang sah” dimasukkan ke dalam semua kontrak pengadaan AI, yang berarti standar penggunaan militer AI akan disamakan dengan penggunaan kekuatan secara umum, tanpa lagi membutuhkan “kontrol manusia yang bermakna.”

Namun, setelah berbulan-bulan negosiasi yang sulit, Anthropic belum menerima ketentuan tersebut, dan Pentagon merasa “kecewa.” Seorang pejabat menyatakan:

Segalanya mungkin terjadi, termasuk pengurangan kerja sama dengan Anthropic, atau bahkan penghentian sama sekali. Tapi jika kami merasa itu yang terbaik, kami harus mencari pengganti yang cocok untuk mereka.

Dua Garis Merah Anthropic: Larangan Pengawasan Massal dan Senjata Otonom

Menanggapi tekanan Pentagon, Anthropic bersikeras pada dua garis merah yang tidak boleh dilanggar:

  • Larangan pengawasan massal terhadap warga AS
  • Larangan sistem senjata otonom penuh (yaitu senjata otomatis tanpa intervensi manusia)

Pejabat tinggi tersebut mengakui bahwa masih ada “kerancuan besar” mengenai skenario penggunaan apa yang termasuk dalam larangan ini dan mana yang tidak. Jika Pentagon harus bernegosiasi secara kasus per kasus untuk setiap penggunaan tertentu, atau Claude secara tidak sengaja menolak aplikasi tertentu dalam praktiknya, hal ini dianggap “tidak dapat dilakukan.”

Perlu dicatat bahwa tahun lalu, Anthropic menandatangani kontrak prototipe dua tahun dengan batas maksimal 200 juta dolar, dan Claude menjadi model AI komersial pertama yang diizinkan berjalan di jaringan rahasia Pentagon, digunakan untuk pengujian senjata hingga komunikasi tempur secara real-time.

Serangan Mendadak Maduro Memicu Ketegangan

Akar krisis kontrak ini bermula dari sebuah insiden yang terjadi bulan ini. Menurut Axios pada 13 Februari, dalam operasi penyerangan mendadak AS ke Venezuela untuk menangkap mantan presiden Nicolás Maduro, platform Palantir digunakan untuk mengerahkan Claude guna memproses data intelijen secara real-time.

Laporan menyebutkan bahwa pejabat tinggi Anthropic, setelah mengetahui hal ini, menghubungi Palantir untuk menanyakan apakah Claude digunakan dalam operasi tersebut, “dengan nada yang menunjukkan ketidaksepakatan mereka terhadap penggunaan tersebut, karena operasi melibatkan serangan kinetik (senjata penetrasi non-ledakan).”

Claude menolak terlibat, yang memicu kekhawatiran serius di internal Pentagon.

Jubir Anthropic dengan tegas membantah, menyatakan bahwa mereka pernah berdiskusi dengan Departemen Pertahanan terkait penggunaan tertentu untuk keperluan militer.

Tiga Raksasa lainnya “Tidak Keberatan”

Berbeda dengan Anthropic, tiga laboratorium AI lainnya menunjukkan fleksibilitas yang lebih tinggi terhadap permintaan Pentagon:

  • OpenAI (ChatGPT) telah menyetujui untuk melepas filter keamanan standar saat melayani Pentagon
  • Google (Gemini) menunjukkan sikap kooperatif aktif
  • xAI (Grok) juga menunjukkan niat kerjasama

Diketahui bahwa setidaknya satu dari ketiga perusahaan tersebut telah sepenuhnya menerima ketentuan “semua penggunaan yang sah,” sementara dua lainnya menunjukkan fleksibilitas yang jauh lebih besar dibanding Anthropic. Hal ini menjadikan Anthropic satu-satunya pemain yang tetap berpegang teguh pada prinsip keamanan, namun berisiko terpinggirkan dalam perlombaan senjata AI militer ini.

Produk AI yang berkembang ke arah akhir adalah untuk melayani negara, dan militer adalah sudut yang tak terelakkan.

Lihat Asli
Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.
Komentar
0/400
Tidak ada komentar