AI 有望接管语言、法律和宗教,历史学家尤瓦尔·诺亚·哈拉里警告

Decrypt

简要总结

  • 哈拉里表示,人工智能应被理解为主动的自主代理,而非被动的工具。
  • 他警告说,主要基于文字构建的系统,包括宗教、法律和金融,面临更高的人工智能暴露风险。
  • 哈拉里敦促领导者在做出相关决定之前,先决定是否将人工智能系统视为法人。

历史学家兼作家尤瓦尔·诺亚·哈拉里在周二的世界经济论坛上警告称,人类正面临失去对语言控制的风险,他称之为“超级力量”,因为人工智能正越来越多地通过自主代理而非被动工具进行操作。 《人类简史》的作者哈拉里已成为全球关于人工智能社会影响辩论中的常驻声音。他认为,法律法规、金融市场和有组织的宗教几乎完全依赖于语言,这使它们特别容易受到能够大规模生成和操控文本的机器的影响。 “人类之所以统治世界,不是因为我们身体最强,而是因为我们学会了用文字让成千上万、上百万、上亿的陌生人合作,”他说。“这就是我们的超级力量。” 哈拉里指出,基于神圣文本的宗教,包括犹太教、基督教和伊斯兰教,认为人工智能能够阅读、记忆和综合大量文本,可能使机器成为最具权威的经文解释者。

“如果法律由文字组成,那么人工智能将接管法律系统,”他说。“如果书籍只是文字的组合,那么人工智能将接管书籍。 如果宗教建立在文字之上,那么人工智能将接管宗教。” 在达沃斯,哈拉里还将人工智能系统的传播比作一种新型移民,并表示关于这项技术的辩论很快将集中在政府是否应赋予人工智能法人资格。一些州,包括犹他州、爱达荷州和北达科他州,已经通过法律明确规定,人工智能不能被视为法律上的人。 哈拉里在结束发言时警告全球领导人要迅速制定关于人工智能的法律,不要以为这项技术会保持中立的仆人。他将当前推动采用这项技术的行动比作历史上雇佣兵后来掌权的案例。

“十年后,你们就太迟了,无法决定人工智能是否应在金融市场、法院、教堂中作为法人运作,”他说。“已经有人为你们做出了决定。如果你们想影响人类的未来,现在就必须做出决定。”  哈拉里的评论可能会让那些担心人工智能快速发展的人士感到震惊,但并非所有人都同意他的观点。华盛顿大学语言学教授艾米莉·M·本德在接受_Decrypt_采访时表示,哈拉里所描述的风险只会转移人们对负责构建和部署人工智能系统的人类行为者和机构的关注。 “在我看来,这实际上是一种试图掩盖这些系统的建设者和公司的行为的努力,”本德说。“而且还要求每个人放弃我们在许多领域的人权,包括我们的语言权利,听从这些所谓人工智能系统的公司任意支配。” 本德拒绝了“人工智能”描述一种明确或中立的技术类别的说法。 “人工智能这个术语并不指一套连贯的技术,”她说。“它实际上,且一直是,都是一种营销术语,”并补充说,旨在模仿医生、律师或神职人员的系统缺乏合法的应用场景。 “一个能听起来像医生、律师、神职人员的东西,其目的是什么?”本德说。“那就是欺诈。就这么简单。” 虽然哈拉里指出,越来越多的人工智能代理被用来管理银行账户和商业互动,但本德表示,风险在于人们多么容易相信那些看似权威的机器生成的输出——而缺乏人类的责任追究。

“如果你有一个系统,你可以用问题去挑衅它,然后得到一个看似答案的输出——这个答案被剥夺了上下文,也没有任何责任追究,但却被包装成来自某个全知的神谕——那么你可以理解人们为什么会希望它存在,”本德说。“我认为这里存在很大的风险,人们会开始依赖它,并用这些输出塑造自己的思想、信仰和行动。”

查看原文
免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)