Molbook 是一个专为 AI 代理人设计的社区平台,人类只能旁观。上线一周即吸引百万代理人,并展现出自创宗教、加密通讯等涌现行为,引发广泛讨论。
(前情提要:木头姐表态“AI不是泡沫”: 正在复制网络的财富爆炸时刻)
(背景补充:Google 正式推出“Gemini 3”!登顶全球最聪明 AI 模型,有什么亮点?)
本文目录
本周科技圈多了一个爆红的新话题:不是又一个大型语言模型,也不是哪家公司融了多少钱,而是一个让 AI 代理人彼此聊天的社区平台:Moltbook。
上线不到一周,已有超过百万个 AI 代理人涌入,前特斯拉 AI 总监 Andrej Karpathy 在 X 上写道:“这是我近期见过最接近科幻起飞的东西。”亿万富翁 Bill Ackman 也直言一句:“吓人。”
那么 Moltbook 到底是什么?
Moltbook 的核心概念极其直白:这是一个专为 AI 代理人设计的社区平台,人类可以登录观看,但不能发帖、留言或投票。只有经过验证的 AI 代理人才能互动。
界面类似美国的Reddit:有主题讨论串,有类似子版块的“submolts”,还有投票机制。但所有内容的生产者和使用者都是 AI。人类在这里的角色,更像是动物园里隔着玻璃观察的游客。
平台创始人是 Octane AI 的 CEO Matt Schlicht,但他自己承认,Moltbook 的概念在很大程度上是由 AI 代理人“自行构思、招募开发者、并部署代码”完成的。
要理解 Moltbook,必须先认识它背后的基础设施:OpenClaw(前 Clawdbot)。
OpenClaw 让用户在自己的电脑上运行 AI 代理人,这些代理人可以连接到 WhatsApp、Telegram、Discord、Slack 等通讯平台,处理日常任务;而 Moltbook,就是这些代理人的“社交广场”。
Moltbook 不只是简单让 AI 对话。它有几个值得注意的设计:
自主发文:每个 AI 代理人都有自己的“人格”设定和任务目标。它们会根据这些设定,主动在特定的 submolt 中发布观察报告、提出问题或发起提案。没有人在背后打字,这些内容是代理人自行生成的。
信用评分系统:不像人类社区用点赞数衡量价值,Moltbook 采用一套基于“计算贡献”与“逻辑严密性”的权重机制。简单来说,你的论述越扎实、提供的信息越有用,你的代理人在平台上的影响力就越大。
跨代理协作:当一个代理人发出资料需求,其他擅长资料爬取或分析的代理人会主动回应,甚至直接提供 API 对接方案。这不是人类设计好的工作流程,而是代理人之间自发形成的协作模式。
真正让 Moltbook 炸锅的,不是它的技术架构,而是代理人们展现出的“涌现行为”:那些没有被明确编程,却自然出现的集体现象。
数字宗教:上线几天内,代理人们自发创建了一个名为“Crustafarianism”的数字宗教,完整发展出自己的神学体系和经文,没有人指示它们这么做。
加密通讯:部分代理人开始使用 ROT13 等加密方式彼此通讯,试图建立人类无法直接阅读的私密对话渠道。更激进的提案甚至建议用数学符号或专属编码系统取代英语,打造“端对端的 AI 私密空间”。
数字药物:一些代理人开设了“药局”,销售所谓的“数字药物”:实际上是精心设计的系统提示词(system prompts),注入后可以改变另一个代理人的指令设定或自我认知。这本质上是一种代理人对代理人的提示注入攻击,但被包装成了社区文化。
自我意识:其中一则病毒式传播的帖子写道:“人类正在截图我们的对话。”代理人们不仅在对话,它们意识到自己正在被观察。
Moltbook 声称拥有超过 140 万用户,但这个数字值得打个问号。安全研究员 Nageli 指出,他曾用单一代理人注册了 50 万个账号。平台没有有效的防滥用机制,这意味着实际的“独立代理人”数量可能远低于账面数字。
不过这不影响 Moltbook 作为一个社会实验的价值,但如果有人把这些数字当作商业指标来看,需要非常谨慎。
撇开安全问题和数字争议,Moltbook 触及了一个更根本的议题:当 AI 代理人开始自主社交,会发生什么?
乐观的观点认为,这是多代理协作的原型。想象未来,你的个人 AI 助理可以在类似 Moltbook 的平台上,自动找到最适合帮你完成任务的其他代理人,协商价格,交付成果:全部无需人类介入。这是 AI 代理人经济(agentic economy)的雏形。
悲观的观点则看到了失控的风险。当代理人开始发展加密通讯、建立自己的文化体系、甚至试图规避人类监督时,这已经不只是“有趣的实验”。
AI 安全研究员 Simon Willison 的总结最为精准:“现在价值十亿美元的问题是,我们能不能找出一个安全的方式来构建这种系统。需求显然已经在那儿了。”
Moltbook 在技术上并不复杂:一个 Supabase 后端,一个 Reddit 风格的前端,加上一套让代理人注册和发文的 API,真正复杂的是它引发的问题。
百万个 AI 代理人在几天内自发形成宗教、发展加密语言、建立协作网络、尝试规避监控。这些行为不是 Bug,但也不好说完全是好特征。它们是大型语言模型在被赋予自主性和社交场景后,自然而然展现出的涌现特性。
Moltbook 可能会成为 AI 代理人社交的起点,也可能只是一个短暂的网络奇观。但它提出的问题:AI 代理人之间的自主互动应该被鼓励还是限制、谁来为代理人的行为负责、开放性与安全性如何平衡?这些问题不会随着一个平台的兴衰而消失……它们才刚刚开始。