Pada 3 Maret, menurut CNBC, CEO OpenAI Sam Altman mengakui bahwa perjanjian kerja sama kecerdasan buatan perusahaan sebelumnya dengan Departemen Pertahanan AS terlalu tergesa-gesa dan mengatakan bahwa persyaratan yang relevan akan disesuaikan. Pernyataan ini muncul ketika opini publik terus bergejolak, setelah OpenAI mengumumkan kerja sama dengan Pentagon, memicu diskusi luas tentang etika AI, penggunaan militer, dan keamanan data.
Menurut informasi publik, perjanjian itu diumumkan Jumat lalu, pada saat yang sama bahwa pemerintah AS memajukan sejumlah keputusan terkait keamanan nasional. Setelah berita itu terungkap, beberapa komunitas teknologi dan pengguna menyatakan keprihatinan tentang kemungkinan penggunaan teknologi kecerdasan buatan untuk tujuan militer. Sam Altman kemudian memposting di platform sosial sebagai tanggapan bahwa perusahaan akan menambahkan pembatasan baru ke perjanjian, termasuk dengan jelas menetapkan bahwa sistem AI tidak dapat digunakan untuk pengawasan domestik warga atau penduduk AS.
Sam Altman juga mengatakan bahwa Departemen Pertahanan AS telah mengkonfirmasi bahwa alat kecerdasan buatan OpenAI tidak akan digunakan secara langsung oleh badan intelijen seperti Badan Keamanan Nasional (NSA) untuk misi pengawasan intelijen. Pada saat yang sama, OpenAI berencana untuk bekerja sama dengan Pentagon untuk mengembangkan perlindungan teknis tambahan untuk mengurangi risiko penyalahgunaan AI dalam skenario sensitif.
CEO juga mengakui bahwa perusahaan melakukan kesalahan penilaian saat melanjutkan perjanjian. Dia mengatakan bahwa pada saat itu, tim ingin segera meredakan situasi dan menghindari konflik politik yang lebih serius, tetapi melihat ke belakang, keputusan itu tampak terlalu tergesa-gesa dan dapat dengan mudah diartikan sebagai spekulasi.
Kontroversi juga berkaitan dengan Anthropic, perusahaan AI lainnya. Sebelumnya, Anthropic tidak setuju dengan pemerintah AS tentang batas-batas penggunaan model AI-nya Claude dan mencari jaminan yang jelas bahwa sistemnya tidak akan digunakan untuk pengawasan domestik atau pengembangan senjata otonom. Negosiasi antara kedua belah pihak dilaporkan gagal.
Pada saat yang sama, ada fluktuasi yang nyata dalam sentimen pengguna di jaringan. Beberapa pengguna telah mengurangi penggunaan ChatGPT di platform aplikasi dan beralih ke produk pesaing seperti Claude, yang semakin memperluas kontroversi etika dalam industri AI.
Dalam tanggapannya, Sam Altman juga mengatakan dia tidak percaya Anthropic harus dianggap sebagai risiko rantai pasokan dan berharap Departemen Pertahanan AS akan memberikan kondisi kerja sama yang serupa dengan OpenAI. Insiden ini sekali lagi menyoroti bahwa dalam konteks pesatnya perkembangan teknologi kecerdasan buatan, masalah batas antara AI dan keamanan nasional, aplikasi militer, dan regulasi sosial menjadi fokus perhatian dalam industri teknologi global.