Google DeepMind 执行长 Demis Hassabis 与 Anthropic 执行长 Dario Amodei 于 1/20 瑞士达沃斯举办的世界经济论坛 (WEF) 上,同台对谈通用人工智能 (AGI) 未来发展,整场对话气氛理性且友好,但在三个核心议题上,双方却展现出明显分歧。
什么是通用人工智能 (AGI)?
AGI 指的是一种假想中的人工智能形态,能够理解、学习并执行人类能做的各种理性任务,目标是模拟人类大脑的认知能力。与现有多半只能处理单一任务的 AI 不同,AGI 具备跨领域的泛化能力,能将某个领域学到的知识运用到全新情境,同时也拥有接近人类的常识与世界理解,用于推理与决策。
AGI 的发展依赖于计算机科学、神经科学与认知心理学等跨领域研究。目前真正的 AGI 尚未问世,但相关研究和开发工作正持续进行中。
AGI 何时实现?DeepMind 与 Anthropic 执行长看法分歧
Anthropic 执行长 Amodei 重申他去年提出的时间表,可能在 2026~2027 年,就会出现能在多数领域达到「诺贝尔奖等级」的人类水平 AI。
「只要 AI 已经能写程序、做 AI 研究,就能回头帮自己设计下一代模型,形成 AI 帮 AI 升级的自我加速循环,一旦这个循环开始顺利运行,AGI 会呈现指数型爆发。」
他甚至表示,Anthropic 内部已有工程师几乎不再自己写程序,而是让模型产出后再由人类检查,显示这条路径已开始成形。
不过,Google DeepMind 执行长 Hassabis 则维持较保守立场,仍以「本世纪末前有 50% 概率出现完整 AGI」作为主要判断。他认为,程序、数学这类可快速验证的领域确实容易自动化,但自然科学、理论创造与提出好问题这件事本身,目前仍缺关键能力,而且验证周期长、实体世界摩擦大,不一定能被自我加速循环快速解决。
AI 对就业冲击多快出现?Amodei 警告紧迫、Hassabis 强调缓冲
在就业问题上,双方分歧同样明显。Amodei 曾公开表示,未来 1~5 年内,可能有一半入门白领工作消失。对此,他在这次论坛上说明,虽然整体劳动数据尚未全面反映,但在程序与工程领域已能看到初步影响,企业对初阶与中阶人力的需求,很可能会先从「增速放缓」开始,之后才出现更明显的替代。Amodei 的核心担忧是,AI 的进步是指数型,但社会调适速度是线性的,两者终将出现落差。
而 Hassabis 则更接近传统经济学观点。他认为短期内仍会重演过去科技革命的模式,也就是:
「有些工作消失,但同时会出现新的、更高价值的工作,而入门职位、实习生可能最先受影响。」
但也强调,现在的 AI 工具几乎「人人可用」,年轻人若能快速掌握,反而可能比传统实习累积得更快。
AI 发展是否该降速,Amodei 主张要慢、Hassabis 想稳中求进
谈到风险与地缘政治,分歧更加清楚。Amodei 直言,他希望整个世界能对 AI 发展「慢一点」,给人类更多时间建立安全与治理机制。因此他强烈主张限制先进芯片外流,认为 AI 的战略意义已接近核武等等级,不应只用商业或供应链逻辑衡量。他甚至用核武交易做比喻,认为不能为了短期利益换取长期风险。
Hassabis 在价值上并不反对「慢一点比较好」,但他更强调现实条件,也就是地缘政治与企业竞争,使得真正踩刹车非常困难。在这种情况下,比起期待全面放慢,更实际的问题是:
「如何在 AI 高速竞争中,尽可能同步设立安全机制来应对风险。」
共识之外的差异,决定 AI 未来发展节奏
值得注意的是,双方在许多大方向上高度一致,像是都认为 AI 会极大改变世界,也都承认安全风险真实存在,并反对「注定灭亡」的末日论。但在速度这件事上,他们给出的答案明显不同。这种差异,也正好映照出当前 AI 时代的核心议题,究竟是要让 AI 往 AGI 冲刺迈进,还是控速前进。
(AI 开始自己做事了,Anthropic 解释:人类该怎么评估它做得好坏?)
这篇文章 达沃斯论坛|AGI 发展分歧?Google DeepMind 与 Anthropic 三大立场一次看 最早出现于 链新闻 ABMedia。