Nhà sử học và tác giả Yuval Noah Harari cảnh báo tại Diễn đàn Kinh tế Thế giới vào thứ Ba rằng nhân loại đang có nguy cơ mất kiểm soát ngôn ngữ, mà ông gọi là “siêu năng lực” định nghĩa của nó, khi trí tuệ nhân tạo ngày càng hoạt động qua các tác nhân tự chủ thay vì công cụ thụ động. Tác giả của “Sapiens,” Harari đã trở thành một tiếng nói thường xuyên trong các cuộc tranh luận toàn cầu về tác động xã hội của trí tuệ nhân tạo. Ông lập luận rằng các mã luật, thị trường tài chính và tôn giáo tổ chức dựa gần như hoàn toàn vào ngôn ngữ, khiến chúng đặc biệt dễ bị tấn công bởi các máy móc có khả năng tạo và thao tác văn bản quy mô lớn. “Con người đã chiếm lĩnh thế giới không phải vì chúng ta mạnh nhất về thể chất, mà vì chúng ta phát hiện ra cách sử dụng từ ngữ để khiến hàng nghìn, hàng triệu, hàng tỷ người lạ hợp tác,” ông nói. “Đây chính là siêu năng lực của chúng ta.” Harari chỉ ra các tôn giáo dựa trên các văn bản thiêng liêng, bao gồm Do Thái giáo, Kitô giáo và Hồi giáo, lập luận rằng khả năng đọc, ghi nhớ và tổng hợp khối lượng lớn văn bản của AI có thể biến các máy móc thành những người giải thích Kinh Thánh có thẩm quyền nhất.
“Nếu luật pháp được tạo thành từ các từ ngữ, thì AI sẽ chiếm lĩnh hệ thống pháp luật,” ông nói. “Nếu sách chỉ là các tổ hợp từ ngữ, thì AI sẽ chiếm lĩnh sách. Nếu tôn giáo dựa trên từ ngữ, thì AI sẽ chiếm lĩnh tôn giáo.” Tại Davos, Harari cũng so sánh sự lan truyền của các hệ thống AI như một hình thức nhập cư mới, và nói rằng cuộc tranh luận về công nghệ này sẽ sớm tập trung vào việc liệu các chính phủ có nên cấp cho các hệ thống AI quyền pháp nhân hay không. Một số bang, bao gồm Utah, Idaho và North Dakota, đã thông qua luật rõ ràng quy định rằng AI không thể được coi là một cá nhân theo pháp luật. Harari kết thúc bài phát biểu của mình bằng cảnh báo các nhà lãnh đạo toàn cầu hành động nhanh chóng về các luật liên quan đến AI và không giả định rằng công nghệ này sẽ vẫn là một người phục vụ trung lập. Ông so sánh nỗ lực hiện tại để chấp nhận công nghệ này với các trường hợp lịch sử trong đó các lính đánh thuê sau đó nắm quyền.
“Trong mười năm nữa, sẽ quá muộn để bạn quyết định AI có nên hoạt động như một cá nhân trong thị trường tài chính, trong các tòa án, trong các nhà thờ,” ông nói. “Người khác đã quyết định điều đó cho bạn rồi. Nếu bạn muốn ảnh hưởng đến hướng đi của nhân loại, bạn cần phải đưa ra quyết định ngay bây giờ.” Những bình luận của Harari có thể gây sốc cho những người sợ sự tiến bộ của AI, nhưng không phải ai cũng đồng ý với cách ông diễn đạt. Giáo sư Emily M. Bender, một nhà ngôn ngữ học tại Đại học Washington, nói rằng việc đặt các rủi ro như Harari đã làm chỉ làm chuyển hướng sự chú ý khỏi các diễn viên và tổ chức chịu trách nhiệm xây dựng và triển khai các hệ thống AI. “Nghe có vẻ như đây là một nỗ lực để làm mờ đi hành động của những người và tập đoàn xây dựng các hệ thống này,” Bender nói trong một cuộc phỏng vấn với Decrypt. “Và cũng là một yêu cầu rằng mọi người nên từ bỏ quyền con người của chính mình trong nhiều lĩnh vực, bao gồm quyền sử dụng ngôn ngữ của chúng ta, theo ý thích của các công ty này dưới vỏ bọc của các hệ thống trí tuệ nhân tạo gọi là này nọ.” Bender bác bỏ ý tưởng rằng “trí tuệ nhân tạo” mô tả một lĩnh vực công nghệ rõ ràng hoặc trung lập. “Thuật ngữ trí tuệ nhân tạo không đề cập đến một tập hợp công nghệ nhất quán,” bà nói. “Nó, về cơ bản, và luôn luôn là, một thuật ngữ tiếp thị,” thêm rằng các hệ thống được thiết kế để bắt chước các chuyên gia như bác sĩ, luật sư hoặc linh mục thiếu các trường hợp sử dụng hợp pháp. “Mục đích của một thứ có thể nghe giống như bác sĩ, luật sư, linh mục, v.v. là gì?” Bender nói. “Mục đích ở đây là lừa đảo. Hoàn toàn.” Trong khi Harari nhấn mạnh việc sử dụng ngày càng nhiều các tác nhân AI để quản lý tài khoản ngân hàng và các tương tác kinh doanh, Bender cho biết rủi ro nằm ở chỗ mọi người dễ tin tưởng vào các kết quả do máy tạo ra trông có vẻ có thẩm quyền—trong khi thiếu trách nhiệm của con người.
“Nếu bạn có một hệ thống mà bạn có thể chọc hỏi bằng một câu hỏi và có thứ gì đó phản hồi lại trông giống như câu trả lời—được tước bỏ khỏi ngữ cảnh và không có trách nhiệm gì về câu trả lời đó, nhưng lại được đặt là đến từ một nhà tiên tri toàn năng—thì bạn có thể thấy mọi người sẽ muốn nó tồn tại,” Bender nói. “Tôi nghĩ có rất nhiều rủi ro ở đó khi mọi người bắt đầu hướng về nó và sử dụng kết quả đó để hình thành ý tưởng, niềm tin và hành động của chính họ.”