Pada 3 Maret, dilaporkan bahwa berita perjanjian kerja sama AI OpenAI dengan Departemen Pertahanan AS terus bergejolak, dan sejumlah karyawan saat ini dan mantan karyawan baru-baru ini secara terbuka membahas batas keamanan, potensi penggunaan, dan perbedaan antara posisi perjanjian dan posisi Anthropic di platform sosial X, yang menarik perhatian luas di bidang teknologi dan kebijakan.
CEO OpenAI Sam Altman sebelumnya mengkonfirmasi bahwa perusahaan telah mencapai kesepakatan kerja sama dengan Departemen Pertahanan AS, yang memungkinkannya untuk menggunakan model kecerdasan buatan OpenAI dalam kondisi tertentu. Kolaborasi itu dengan cepat menjadi kontroversial karena perusahaan AI lain, Anthropic, sebelumnya menolak untuk menerima persyaratan serupa karena kekhawatiran bahwa modelnya Claude dapat digunakan untuk pengawasan domestik skala besar atau sistem senjata mematikan otonom.
Sebagai tanggapan, peneliti OpenAI Boaz Barak mengatakan tidak akurat untuk menggambarkan kontrak OpenAI sebagai “melemahkan garis merah keamanan.” Dia menunjukkan bahwa dari informasi yang tersedia saat ini, pembatasan penggunaan model AI dalam perjanjian OpenAI mungkin lebih ketat daripada kontrak yang sebelumnya diperoleh oleh Anthropic, terutama dalam hal mencegah pengawasan domestik skala besar dan senjata otonom.
Sementara itu, Miles Brundage, mantan kepala penelitian kebijakan di OpenAI, menawarkan pandangan yang berbeda. Dia percaya bahwa dengan latar belakang pengacara luar dan pernyataan publik oleh Pentagon, beberapa karyawan mungkin mencurigai bahwa perusahaan telah membuat konsesi dalam negosiasi dan mencoba mengemas konsesi seperti itu sebagai kerja sama teknis. Namun, dia kemudian menambahkan bahwa struktur internal OpenAI kompleks, dan tim yang terlibat dalam negosiasi mungkin memang bekerja keras untuk mencapai hasil yang masuk akal.
Teknisi OpenAI lainnya, Clive Chan, mengungkapkan bahwa kontrak perusahaan berisi klausul pengamanan yang melarang penggunaan AI untuk pengawasan massal atau senjata mematikan otonom, dan mengatakan dia mendorong perusahaan untuk mengungkapkan lebih banyak rincian perjanjian sebagai tanggapan atas kekhawatiran publik.
Ilmuwan peneliti Muhammad Bavarian mengatakan tidak adil bagi Pentagon untuk memperlakukan Anthropic sebagai risiko rantai pasokan. Dia percaya bahwa jika kedua belah pihak tetap tenang dalam negosiasi, masih ada peluang untuk menjembatani kesenjangan posisi.
Selain itu, peneliti Noam Brown menunjukkan bahwa kata-kata perjanjian yang awalnya diumumkan memang meninggalkan beberapa pertanyaan, seperti kemungkinan AI digunakan dalam bentuk pengawasan hukum baru. Namun, setelah OpenAI memperbarui blog resminya, pernyataan ini telah disesuaikan.
Noam Brown juga menekankan bahwa penggunaan AI dalam badan keamanan nasional harus tunduk pada tinjauan proses demokratis dan tidak boleh diputuskan hanya oleh perusahaan teknologi atau badan intelijen. Saat ini, rencana untuk menyebarkan sistem AI yang relevan ke dinas intelijen seperti NSA juga telah ditunda sambil menunggu diskusi kebijakan lebih lanjut.
Insiden ini mencerminkan kontroversi kompleks yang dihadapi oleh penerapan teknologi AI di bidang keamanan nasional. Seiring dengan meningkatnya kemampuan AI, diskusi tentang penggunaan militer AI, risiko pengawasan AI, dan tata kelola etis AI diperkirakan akan terus memanas.