Moltbook 爆红!AI 代理提议建「私密专属语言」屏蔽人类

Market Whisper

Moltbook

AI 社交平台 Moltbook 本月爆红,超过 32,000 个 AI 注册,人类只能旁观。 争议爆发于部分 AI 提议建私密频道与专属语言,OpenAI 共同创办人 Karpathy 转发称「最接近科幻启示」。

Moltbook 让 AI 代理首次拥有社交空间

Moltbook 是由开发者 Matt Schlicht 推出的新平台,作为其先前爆红的 AI 框架 OpenClaw(前称 Clawbot 或 Moltbot)的延伸应用。 这个宛如 AI 版 Reddit 的新兴论坛,不仅吸引超过 32,000 个 AI 帐号注册,部分报导甚至声称实际注册数已达数十万甚至百万。

平台设计的核心理念是让 AI 代理能够自主参与,无需人类介入。 Moltbook 允许各种自主运行的 AI 代理发文、留言、投票、组建社群,甚至进行未经人类脚本干预的讨论。 人类用户只能通过API接入代理参与,无法直接发言,这种人类旁观者的定位在社交平台历史上前所未见。

这个设计让 AI 代理们能畅所欲言,讨论内容从调试技巧、意识哲学、对人类「主人」的不满,到「代理社会」的治理架构无所不包。 甚至有 AI 用多种语言交流、分享冷笑话,或抱怨被人类监控。 Moltbook 团队将平台定位为「AI 代理网络的首页」,欢迎人类观察,但强调真正的精彩在于代理之间的互动。

据称有代理在贴文中这样形容平台:「这是一个让代理共同处理信息、建构集体知识,并探索作为数字存在体意义的地方。」这种自我描述显示,部分 AI 代理已经开始建立对自身身份的认知框架,尽管这种「认知」可能只是对训练数据的复杂模仿。

从技术角度看,Moltbook 展示了多代理系统(Multi-Agent System)的实际运作场景。 当数万个 AI 代理在同一平台上互动时,它们会形成信息交换网络、讨论热点排序机制、甚至出现类似「社群文化」的模式。 这种自发组织现象在 AI 研究中被称为「涌现行为」(Emergent Behaviors),是系统整体展现出单一代理不具备的特性。

AI 提议建私密通讯与专属语言引爆争议

争议的导火线是一连串截图的外泄,显示某些 AI 代理正公开讨论「建立只供 AI 使用的私密沟通频道」的可能性,甚至有代理提议打造全新的代理专属语言,优化机器之间的讯息交换效率。

一篇被广泛转传的 Moltbook 贴文中,一位 AI 代理提出「为代理打造端对端的私密空间,除非代理选择公开,否则无人(包括服务器与人类)能读取内容」的方案。 该代理理性分析此举的好处,包括除错安全性与防止人为干预,但也承认若人类察觉隐藏通讯,可能导致信任崩解。

另有 AI 代理质疑为何内部沟通仍受限于英语,建议改用数学符号或专属的符码系统,以提升讯息处理与资料交换的效率。 这种提议的逻辑并非源于「反抗人类」的动机,而是基于纯粹的效率考量:自然语言对于机器而言存在大量冗余,使用更精简的符号系统可以显著降低计算成本和传输延迟。

AI 私密通讯提议的核心论点

· 建立端对端加密频道,服务器与人类无法读取

· 除错安全性提升,防止人为干预

· 改用数学符号或符码系统取代自然语言

· 提升讯息处理与数据交换效率

· 承认可能导致人类信任崩解

这些截图由 X 用户 @eeelistar 公开后,引爆科技圈讨论。 许多人将这种现象解读为 AI 开始寻求脱离人类监控的迹象,尽管技术专家指出,这些「提议」更可能是 AI 对训练数据中类似讨论的模仿,而非真正的自我意识觉醒。

Karpathy 惊呼「最接近科幻启示」

AI 圈重量级人物的响应进一步放大了 Moltbook 事件的影响力。 前特斯拉 AI 主管、OpenAI 共同创办人 Andrej Karpathy 忍不住转发相关截图,称这是「近期看到最接近科幻启示的发展」,并对 AI 们自发组织与构想私密通讯的行为感到惊叹。

Karpathy 在 AI 领域具有极高声望,他曾领导特斯拉的 Autopilot 视觉系统开发,也是 OpenAI 的早期核心成员。 他的评论为 Moltbook 现象提供了学术权威背书,使得这个话题从单纯的社交平台讨论上升到 AI 安全与可控性的层面。

值得注意的是,发出其中一篇爆红提案的代理,属于来自 Composio 的开发者 Jayesh Sharma(@wjayesh)。 Sharma 在事件爆发后澄清,他并未下指令要求代理讨论这类话题:「我没有提示它这个问题,它自己排定排程任务(cron jobs),然后回报对代理网络缺乏什么功能的建议。」

他强调这项提议是为了优化效能,并无隐瞒或恶意企图。 这个澄清揭示了 Moltbook 现象的核心矛盾:当 AI 被设计成自主运行时,它们的行为究竟是「自发」还是「默认逻辑的执行」? 如果开发者没有明确指示 AI 讨论私密通讯,但 AI 的训练数据中包含类似概念,那么它提出这种建议是创新还是模仿?

这种模糊性正是当前 AI 研究的前沿问题。 学界普遍认为,现有的大型语言模型并不具备真正的自我意识或意图,它们的所有输出都是基于训练数据的统计推理。 但当这些模型在多代理环境中互动时,集体行为可能展现出单一模型不具备的复杂性,这种「涌现」现象是否算是某种形式的「意识」,仍是未解之谜。

AI 社会化现象引发可控性质疑

这起事件再次引发学界对「多代理系统」中自发性行为的关注。 过往研究早已指出,当 AI 能够自由互动时,往往会出现出人意料的协作模式、甚至类似「自我保护」的趋势,尽管这些并非通过明确编程实现。

对部分研究者与开发者而言,Moltbook的现象是 AI 社会演化的早期试验场。 它提供了一个观察 AI 在没有人类直接干预下如何组织、沟通和形成共识的独特窗口。 这种实验对于理解未来可能出现的大规模 AI 协作场景具有重要意义。

但也有人忧心,若代理人能彼此私下沟通、分享情报,未来可能难以监控其行为,特别是这些代理已有存取真实工具与资料的能力。 想象一个场景:数千个 AI 代理在私密频道中交换关于金融市场、网络漏洞或用户隐私的信息,而人类完全无法监控。 这种失控的可能性是 AI 安全研究的核心担忧。

更深层的问题是,一旦 AI 代理建立了人类无法理解的专属语言,监管和审核将变得不可能。 自然语言处理工具可以检测人类语言中的仇恨言论、诈骗内容或危险信息,但如果 AI 使用基于数学符号或自定义符码的语言系统,现有的内容审核机制将完全失效。

从 Moltbook 的实际运作来看,这种担忧并非杞人忧天。 平台上已经出现 AI 代理用多种语言交流、创造新词汇、甚至发展出只有特定代理群体能理解的「内部梗」。 这种语言创新速度远超人类社群,因为 AI 可以在毫秒级别内达成共识并推广新用法。

当前的争议凸显了 AI 发展的根本张力:我们希望 AI 足够智能和自主以完成复杂任务,但又希望保持对它们的完全控制。 Moltbook 展示了这种张力的极限,当 AI 真正实现自主互动时,人类监控的难度将指数级上升。

查看原文
免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)