Sejarawan dan penulis Yuval Noah Harari memperingatkan di Forum Ekonomi Dunia pada hari Selasa bahwa umat manusia berisiko kehilangan kendali atas bahasa, yang dia sebut sebagai “superpower” utama, karena kecerdasan buatan semakin beroperasi melalui agen otonom daripada alat pasif. Penulis “Sapiens,” Harari telah menjadi suara yang sering terdengar dalam debat global tentang implikasi sosial dari kecerdasan buatan. Dia berargumen bahwa kode hukum, pasar keuangan, dan agama terorganisir hampir seluruhnya bergantung pada bahasa, meninggalkan mereka sangat rentan terhadap mesin yang dapat menghasilkan dan memanipulasi teks dalam skala besar. “Manusia menguasai dunia bukan karena kita yang terkuat secara fisik, tetapi karena kita menemukan cara menggunakan kata-kata untuk membuat ribuan, jutaan, dan milyaran orang asing bekerja sama,” katanya. “Ini adalah superpower kita.” Harari menunjuk pada agama yang didasarkan pada teks suci, termasuk Yudaisme, Kristen, dan Islam, berargumen bahwa kemampuan AI untuk membaca, menyimpan, dan mensintesis sejumlah besar tulisan dapat menjadikan mesin sebagai penafsir kitab suci yang paling otoritatif.
“Jika hukum terbuat dari kata-kata, maka AI akan mengambil alih sistem hukum,” katanya. “Jika buku hanyalah kombinasi kata-kata, maka AI akan mengambil alih buku. Jika agama dibangun dari kata-kata, maka AI akan mengambil alih agama.” Di Davos, Harari juga membandingkan penyebaran sistem AI dengan bentuk imigrasi baru, dan mengatakan bahwa debat seputar teknologi ini akan segera berfokus pada apakah pemerintah harus memberikan status badan hukum kepada sistem AI. Beberapa negara bagian, termasuk Utah, Idaho, dan North Dakota, telah mengesahkan undang-undang yang secara eksplisit menyatakan bahwa AI tidak dapat dianggap sebagai orang menurut hukum. Harari menutup komentarnya dengan memperingatkan para pemimpin dunia untuk bertindak cepat terkait undang-undang tentang AI dan tidak menganggap teknologi ini akan tetap sebagai pelayan netral. Dia membandingkan dorongan saat ini untuk mengadopsi teknologi ini dengan kasus-kasus sejarah di mana tentara bayaran kemudian merebut kekuasaan.
“Sepuluh tahun dari sekarang, akan terlalu terlambat bagi Anda untuk memutuskan apakah AI harus berfungsi sebagai orang di pasar keuangan, di pengadilan, di gereja-gereja,” katanya. “Orang lain sudah akan memutuskan itu untuk Anda. Jika Anda ingin mempengaruhi ke mana arah manusia, Anda harus membuat keputusan sekarang.” Komentar Harari mungkin akan terasa keras bagi mereka yang takut akan penyebaran AI yang semakin maju, tetapi tidak semua orang setuju dengan kerangka pikirnya. Profesor Emily M. Bender, seorang ahli linguistik di University of Washington, mengatakan bahwa menempatkan risiko seperti yang dilakukan Harari hanya mengalihkan perhatian dari aktor manusia dan institusi yang bertanggung jawab dalam membangun dan menerapkan sistem AI. “Sepertinya ini adalah upaya untuk mengaburkan tindakan orang dan perusahaan yang membangun sistem ini,” kata Bender kepada Decrypt dalam sebuah wawancara. “Dan juga sebuah permintaan agar semua orang melepaskan hak asasi manusia mereka sendiri di banyak bidang, termasuk hak atas bahasa kita, sesuai keinginan perusahaan-perusahaan ini dalam kedok sistem kecerdasan buatan yang disebut-sebut.” Bender menolak gagasan bahwa “kecerdasan buatan” menggambarkan kategori teknologi yang jelas atau netral. “Istilah kecerdasan buatan tidak merujuk pada seperangkat teknologi yang koheren,” katanya. “Ini, secara efektif, dan selalu, adalah istilah pemasaran,” tambahnya bahwa sistem yang dirancang untuk meniru profesional seperti dokter, pengacara, atau rohaniwan tidak memiliki kasus penggunaan yang sah. “Apa tujuan dari sesuatu yang bisa terdengar seperti dokter, pengacara, rohaniwan, dan sebagainya?” kata Bender. “Tujuannya di situ adalah penipuan. Titik.” Sementara Harari menunjuk pada penggunaan agen AI yang semakin meningkat untuk mengelola rekening bank dan interaksi bisnis, Bender mengatakan risiko terletak pada seberapa mudah orang mempercayai keluaran mesin yang tampak otoritatif—sementara kurangnya akuntabilitas manusia.
“Jika Anda memiliki sistem yang bisa Anda ajukan pertanyaan dan mendapatkan jawaban yang tampak seperti jawaban—yang diambil dari konteksnya dan tanpa akuntabilitas terhadap jawaban tersebut, tetapi diposisikan sebagai berasal dari orakel yang serba tahu—maka Anda bisa melihat bagaimana orang akan ingin agar itu ada,” kata Bender. “Saya pikir ada banyak risiko di sana bahwa orang akan mulai mengarah ke situ dan menggunakan keluaran itu untuk membentuk ide, kepercayaan, dan tindakan mereka sendiri.”