Hakim Amerika Mempertanyakan Pentagon Menekan Anthropic, Kebebasan Kecerdasan Buatan Menjadi Fokus

GateNews

Berita Gate News melaporkan bahwa hakim federal di San Francisco, Rita Lin, memutuskan bahwa tindakan Pentagon terhadap perusahaan Anthropic mungkin melanggar Amandemen Pertama Konstitusi dan merupakan bentuk balas dendam terhadap kebebasan berpendapat. Perusahaan tersebut sebelumnya secara terbuka mengutuk tindakan “Departemen Perang,” yang memicu reaksi keras dari pemerintah. Gugatan ini telah dialihkan ke pengadilan di California, dan Anthropic menuntut pencabutan label “Risiko Rantai Pasokan” yang pernah menyebabkan pemerintah melarang penggunaan model AI mereka, Claude.

Hakim menyatakan bahwa langkah-langkah pemerintah tampaknya tidak terkait dengan kebutuhan keamanan nasional, melainkan lebih sebagai hukuman terhadap Anthropic. Michael Mungan, perwakilan dari Anthropic, menyebutkan bahwa tindakan seperti ini belum pernah terjadi sebelumnya, dengan wewenang yang sempit dan tidak berlaku untuk pelarangan total teknologi AI. Hakim menegaskan bahwa inti dari kasus ini adalah apakah pemerintah melanggar hukum, bukan legitimasi penghentian penggunaan AI.

Sebelumnya, Anthropic telah bekerja sama dengan beberapa lembaga federal dan menandatangani kontrak senilai 200 juta dolar dengan Pentagon, yang memungkinkan mereka menjalankan sistem di jaringan rahasia. Namun, negosiasi terhenti saat Claude akan diintegrasikan ke platform GenAI.mil. Pentagon menginginkan akses penuh untuk keperluan tugas militer, sementara Anthropic secara tegas menentang penggunaan teknologi mereka untuk keperluan militer dan mencari pembatasan penggunaan yang lebih ketat. Pengacara pemerintah, Hamilton, menyatakan bahwa perusahaan tidak menolak kontrak, melainkan meragukan legalitas penggunaan militer terhadap teknologi tersebut.

Sistem AI Claude baru-baru ini mengalami peningkatan, mampu secara otomatis mengoperasikan komputer pengguna untuk menyelesaikan tugas, seperti menampilkan presentasi, mengirim lampiran undangan rapat, dan lain-lain, sehingga masuk ke dalam kategori agen AI yang dapat berjalan tanpa input terus-menerus. Popularitas OpenClaw mempercepat tren ini, dan baik model Anthropic maupun OpenAI dapat menerima tugas melalui WhatsApp atau Telegram, mengakses file lokal, dan melakukan otomatisasi yang efisien.

Keputusan ini tidak hanya menyangkut penggunaan teknologi AI dalam konteks militer dan pelaksanaan kontrak, tetapi juga memicu kekhawatiran tentang potensi penyalahgunaan kekuasaan oleh pemerintah AS di bidang inovasi digital. Kasus Anthropic menyoroti kompleksitas pertarungan antara perkembangan kecerdasan buatan, kebebasan berpendapat, dan kedaulatan teknologi. Dampak ke depan berpotensi meluas ke lebih banyak perusahaan inovatif dan ekosistem AI global.

Lihat Asli
Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.
Komentar
0/400
Tidak ada komentar