Menurut laporan eksklusif Axios, Pentagon sedang mempertimbangkan untuk menghentikan kerja sama dengan Anthropic karena perusahaan AI ini bersikeras membatasi penggunaan Claude untuk keperluan militer, menolak membuka dua bidang utama: pengawasan massal dan senjata otonom penuh. Perlu dicatat bahwa OpenAI, Google, dan xAI telah menyetujui ketentuan “semua penggunaan yang sah” dari Pentagon, menjadikan Anthropic satu-satunya dari empat laboratorium AI besar yang tetap berpegang teguh.
(Latar belakang: Misi baru Elon Musk “Basis Bulan Alpha”: Membangun pabrik AI di bulan dan meluncurkannya ke sistem tata surya menggunakan peluncur raksasa)
(Konteks tambahan: Ketakutan AI dan PHK! Eksekutif Microsoft memperingatkan: Sebagian besar pekerja kerah putih akan digantikan otomatis dalam “12-18 bulan ke depan”)
Daftar Isi Artikel
Menurut sumber yang dikutip Axios dari pejabat pemerintah senior, Pentagon mendesak keempat laboratorium AI terkemuka (OpenAI, Google, xAI, Anthropic) untuk mengizinkan militer menggunakan alat mereka untuk “semua penggunaan yang sah” (all lawful purposes), termasuk pengembangan senjata, pengumpulan intelijen, dan operasi di medan perang yang paling sensitif.
Permintaan ini berasal dari “Memorandum Strategi Kecerdasan Buatan Departemen Pertahanan” yang diterbitkan Pentagon pada 9 Januari tahun ini. Dokumen tersebut secara tegas menginstruksikan agar dalam 180 hari, ketentuan “semua penggunaan yang sah” dimasukkan ke dalam semua kontrak pengadaan AI, yang berarti standar penggunaan militer AI akan disamakan dengan penggunaan kekuatan secara umum, tanpa lagi membutuhkan “kontrol manusia yang bermakna.”
Namun, setelah berbulan-bulan negosiasi yang sulit, Anthropic belum menerima ketentuan tersebut, dan Pentagon merasa “kecewa.” Seorang pejabat menyatakan:
Segalanya mungkin terjadi, termasuk pengurangan kerja sama dengan Anthropic, atau bahkan penghentian sama sekali. Tapi jika kami merasa itu yang terbaik, kami harus mencari pengganti yang cocok untuk mereka.
Menanggapi tekanan Pentagon, Anthropic bersikeras pada dua garis merah yang tidak boleh dilanggar:
Pejabat tinggi tersebut mengakui bahwa masih ada “kerancuan besar” mengenai skenario penggunaan apa yang termasuk dalam larangan ini dan mana yang tidak. Jika Pentagon harus bernegosiasi secara kasus per kasus untuk setiap penggunaan tertentu, atau Claude secara tidak sengaja menolak aplikasi tertentu dalam praktiknya, hal ini dianggap “tidak dapat dilakukan.”
Perlu dicatat bahwa tahun lalu, Anthropic menandatangani kontrak prototipe dua tahun dengan batas maksimal 200 juta dolar, dan Claude menjadi model AI komersial pertama yang diizinkan berjalan di jaringan rahasia Pentagon, digunakan untuk pengujian senjata hingga komunikasi tempur secara real-time.
Akar krisis kontrak ini bermula dari sebuah insiden yang terjadi bulan ini. Menurut Axios pada 13 Februari, dalam operasi penyerangan mendadak AS ke Venezuela untuk menangkap mantan presiden Nicolás Maduro, platform Palantir digunakan untuk mengerahkan Claude guna memproses data intelijen secara real-time.
Laporan menyebutkan bahwa pejabat tinggi Anthropic, setelah mengetahui hal ini, menghubungi Palantir untuk menanyakan apakah Claude digunakan dalam operasi tersebut, “dengan nada yang menunjukkan ketidaksepakatan mereka terhadap penggunaan tersebut, karena operasi melibatkan serangan kinetik (senjata penetrasi non-ledakan).”
Claude menolak terlibat, yang memicu kekhawatiran serius di internal Pentagon.
Jubir Anthropic dengan tegas membantah, menyatakan bahwa mereka pernah berdiskusi dengan Departemen Pertahanan terkait penggunaan tertentu untuk keperluan militer.
Berbeda dengan Anthropic, tiga laboratorium AI lainnya menunjukkan fleksibilitas yang lebih tinggi terhadap permintaan Pentagon:
Diketahui bahwa setidaknya satu dari ketiga perusahaan tersebut telah sepenuhnya menerima ketentuan “semua penggunaan yang sah,” sementara dua lainnya menunjukkan fleksibilitas yang jauh lebih besar dibanding Anthropic. Hal ini menjadikan Anthropic satu-satunya pemain yang tetap berpegang teguh pada prinsip keamanan, namun berisiko terpinggirkan dalam perlombaan senjata AI militer ini.
Produk AI yang berkembang ke arah akhir adalah untuk melayani negara, dan militer adalah sudut yang tak terelakkan.