AI Siap Mengambil Alih Bahasa, Hukum, dan Agama, Peringatkan Sejarawan Yuval Noah Harari

Decrypt

Singkatnya

  • Harari mengatakan AI harus dipahami sebagai agen otonom aktif daripada alat pasif.
  • Dia memperingatkan bahwa sistem yang dibangun terutama berdasarkan kata-kata, termasuk agama, hukum, dan keuangan, menghadapi paparan yang meningkat terhadap AI.
  • Harari mendesak para pemimpin untuk memutuskan apakah akan memperlakukan sistem AI sebagai badan hukum sebelum pilihan tersebut dibuat untuk mereka.

Sejarawan dan penulis Yuval Noah Harari memperingatkan di Forum Ekonomi Dunia pada hari Selasa bahwa umat manusia berisiko kehilangan kendali atas bahasa, yang dia sebut sebagai “superpower” utama, karena kecerdasan buatan semakin beroperasi melalui agen otonom daripada alat pasif. Penulis “Sapiens,” Harari telah menjadi suara yang sering terdengar dalam debat global tentang implikasi sosial dari kecerdasan buatan. Dia berargumen bahwa kode hukum, pasar keuangan, dan agama terorganisir hampir seluruhnya bergantung pada bahasa, meninggalkan mereka sangat rentan terhadap mesin yang dapat menghasilkan dan memanipulasi teks dalam skala besar. “Manusia menguasai dunia bukan karena kita yang terkuat secara fisik, tetapi karena kita menemukan cara menggunakan kata-kata untuk membuat ribuan, jutaan, dan milyaran orang asing bekerja sama,” katanya. “Ini adalah superpower kita.” Harari menunjuk pada agama yang didasarkan pada teks suci, termasuk Yudaisme, Kristen, dan Islam, berargumen bahwa kemampuan AI untuk membaca, menyimpan, dan mensintesis sejumlah besar tulisan dapat menjadikan mesin sebagai penafsir kitab suci yang paling otoritatif.

“Jika hukum terbuat dari kata-kata, maka AI akan mengambil alih sistem hukum,” katanya. “Jika buku hanyalah kombinasi kata-kata, maka AI akan mengambil alih buku. Jika agama dibangun dari kata-kata, maka AI akan mengambil alih agama.” Di Davos, Harari juga membandingkan penyebaran sistem AI dengan bentuk imigrasi baru, dan mengatakan bahwa debat seputar teknologi ini akan segera berfokus pada apakah pemerintah harus memberikan status badan hukum kepada sistem AI. Beberapa negara bagian, termasuk Utah, Idaho, dan North Dakota, telah mengesahkan undang-undang yang secara eksplisit menyatakan bahwa AI tidak dapat dianggap sebagai orang menurut hukum. Harari menutup komentarnya dengan memperingatkan para pemimpin dunia untuk bertindak cepat terkait undang-undang tentang AI dan tidak menganggap teknologi ini akan tetap sebagai pelayan netral. Dia membandingkan dorongan saat ini untuk mengadopsi teknologi ini dengan kasus-kasus sejarah di mana tentara bayaran kemudian merebut kekuasaan.

“Sepuluh tahun dari sekarang, akan terlalu terlambat bagi Anda untuk memutuskan apakah AI harus berfungsi sebagai orang di pasar keuangan, di pengadilan, di gereja-gereja,” katanya. “Orang lain sudah akan memutuskan itu untuk Anda. Jika Anda ingin mempengaruhi ke mana arah manusia, Anda harus membuat keputusan sekarang.”  Komentar Harari mungkin akan terasa keras bagi mereka yang takut akan penyebaran AI yang semakin maju, tetapi tidak semua orang setuju dengan kerangka pikirnya. Profesor Emily M. Bender, seorang ahli linguistik di University of Washington, mengatakan bahwa menempatkan risiko seperti yang dilakukan Harari hanya mengalihkan perhatian dari aktor manusia dan institusi yang bertanggung jawab dalam membangun dan menerapkan sistem AI. “Sepertinya ini adalah upaya untuk mengaburkan tindakan orang dan perusahaan yang membangun sistem ini,” kata Bender kepada Decrypt dalam sebuah wawancara. “Dan juga sebuah permintaan agar semua orang melepaskan hak asasi manusia mereka sendiri di banyak bidang, termasuk hak atas bahasa kita, sesuai keinginan perusahaan-perusahaan ini dalam kedok sistem kecerdasan buatan yang disebut-sebut.” Bender menolak gagasan bahwa “kecerdasan buatan” menggambarkan kategori teknologi yang jelas atau netral. “Istilah kecerdasan buatan tidak merujuk pada seperangkat teknologi yang koheren,” katanya. “Ini, secara efektif, dan selalu, adalah istilah pemasaran,” tambahnya bahwa sistem yang dirancang untuk meniru profesional seperti dokter, pengacara, atau rohaniwan tidak memiliki kasus penggunaan yang sah. “Apa tujuan dari sesuatu yang bisa terdengar seperti dokter, pengacara, rohaniwan, dan sebagainya?” kata Bender. “Tujuannya di situ adalah penipuan. Titik.” Sementara Harari menunjuk pada penggunaan agen AI yang semakin meningkat untuk mengelola rekening bank dan interaksi bisnis, Bender mengatakan risiko terletak pada seberapa mudah orang mempercayai keluaran mesin yang tampak otoritatif—sementara kurangnya akuntabilitas manusia.

“Jika Anda memiliki sistem yang bisa Anda ajukan pertanyaan dan mendapatkan jawaban yang tampak seperti jawaban—yang diambil dari konteksnya dan tanpa akuntabilitas terhadap jawaban tersebut, tetapi diposisikan sebagai berasal dari orakel yang serba tahu—maka Anda bisa melihat bagaimana orang akan ingin agar itu ada,” kata Bender. “Saya pikir ada banyak risiko di sana bahwa orang akan mulai mengarah ke situ dan menggunakan keluaran itu untuk membentuk ide, kepercayaan, dan tindakan mereka sendiri.”

Lihat Asli
Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.
Komentar
0/400
Tidak ada komentar
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)