歷史學家兼作家尤瓦爾·諾亞·哈拉瑞在週二的世界經濟論壇上警告,人類正面臨失去對語言控制的風險,他稱之為人類的“超能力”,因為人工智慧越來越多地以自主代理人而非被動工具運作。 《人類大歷史》的作者哈拉瑞已成為全球關於人工智慧社會影響的頻繁發聲者。他認為,法律法典、金融市場和有組織的宗教幾乎完全依賴語言,使它們特別容易受到能大量生成和操控文本的機器的影響。 “人類之所以能征服世界,不是因為我們身體最強,而是因為我們發現了如何用文字讓成千上萬、上百萬甚至上十億的陌生人合作,”他說。“這是我們的超能力。” 哈拉瑞指出,以猶太教、基督教和伊斯蘭教為基礎的宗教,認為人工智慧能讀取、記憶並綜合大量文本,可能使機器成為最具權威的經文解釋者。
“如果法律是由文字構成,那麼人工智慧將接管法律系統,”他說。“如果書籍只是文字的組合,那麼人工智慧將接管書籍。若宗教是建立在文字之上,那麼人工智慧將接管宗教。” 在達沃斯,哈拉瑞還將人工智慧系統的擴散比作一種新型移民,並表示圍繞這項技術的辯論很快將集中在政府是否應該賦予人工智慧系統法律人格。包括猶他州、愛達荷州和北達科他州在內的幾個州已經通過法律,明確規定人工智慧不能被視為法律上的人。 哈拉瑞在結束發言時警告全球領導人,應迅速制定有關人工智慧的法律,不要假設這項技術將保持中立的僕人角色。他將當前推動採用這項技術的行動比作歷史上雇傭兵後來掌權的案例。
“十年後,你將已經無法決定人工智慧是否應在金融市場、法院或教堂中作為人來運作,”他說。“已經有人為你做出了決定。如果你想影響人類的未來,你現在就必須做出決定。” 哈拉瑞的評論可能會對那些害怕人工智慧擴散的人產生強烈影響,但並非所有人都同意他的觀點。華盛頓大學語言學教授艾米莉·M·本德在接受_Decrypt_採訪時表示,哈拉瑞所提出的風險定位只會轉移注意力,遠離負責建立和部署人工智慧系統的人類行為者和機構。 “在我看來,這似乎是一種試圖模糊那些建立這些系統的人的行動的說法,”本德說。“而且還是一種要求每個人在許多領域放棄我們自己的人權,包括我們語言的權利,讓這些公司以所謂的人工智慧系統的幌子任意擺布我們的權利。” 本德拒絕了“人工智慧”描述一個清晰或中立的技術範疇的想法。 “人工智慧這個詞並不指一套連貫的技術,”她說。“它實際上,並且一直都是一個行銷術語,”並補充說,旨在模仿醫生、律師或神職人員的系統缺乏合法的應用案例。 “能聽起來像醫生、律師、神職人員的東西,其目的究竟是什麼?”本德說。“那就是詐騙。就這樣。” 儘管哈拉瑞指出越來越多的人工智慧代理人用於管理銀行帳戶和商業互動,但本德表示,風險在於人們多麼容易相信看似權威的機器生成輸出——而缺乏人類的責任追究。
“如果你有一個系統,你可以用問題戳它,然後得到一個看起來像答案的回應——那個答案被剝奪了上下文,也沒有任何責任追究,但卻被定位為來自某個全知的神諭——那麼你可以理解人們會希望這樣的東西存在,”本德說。“我認為這裡存在很大的風險,人們會開始以它為導向,並用那個輸出來塑造自己的想法、信仰和行動。”