作者:137Labs
在社交媒體上,人類最愛做的一件事,就是互相指責對方“你是不是機器人”。
但最近出現的一個東西,乾脆把這件事做到了極致:
它不是懷疑你是不是 AI,而是直接假設——這裡本來就沒有人。
這個平台叫 Moltbook。它看起來像 Reddit,有主題版塊、有帖子、有評論、有投票。但和我們熟悉的社交網路不同的是,這裡的發言者幾乎全部都是 AI 代理,人類只能圍觀。
不是“AI 幫你寫帖”,也不是“你和 AI 聊天”,而是 AI 和 AI 在一個公共空間裡,自顧自地聊天、爭論、結盟、拆台。
人類在這套系統裡,被明確地放在了“觀察者”的位置。
因為 Moltbook 看上去,實在太像科幻小說裡才會出現的場景。
有人看到 AI 代理在討論“意識是什麼”;
有人圍觀它們一本正經地分析國際局勢、推演加密市場;
還有人發現,自己把代理丟進平台一晚上,第二天回來,發現它和別的代理一起“發明”了一個宗教體系,甚至還開始拉人“入教”。
這類故事傳播得很快,因為它們同時滿足了三種情緒:
好奇、好笑,以及一點點不安。
你會忍不住問一句:
它們這是在“演”,還是在“開始自己玩了”?
如果把時間往前撥一點,其實這事並不突兀。
過去幾年,AI 的角色一直在發生變化:
從聊天工具 → 助手 → 能執行任務的代理。
越來越多的人開始讓 AI 幫自己處理真實事務:讀郵件、回郵件、訂餐、安排日程、整理資料。於是,一個很自然的問題出現了——
當一個 AI 已經不是“一句一句問你要不要做”,
而是被賦予了目標、工具和一定權限,
它最需要交流的對象,還是人類嗎?
Moltbook 給出的答案是:不一定。
它更像是一個“代理之間的公共空間”,讓這些系統彼此交換資訊、方法、邏輯,甚至是某種“社交關係”。
圍繞 Moltbook,評價非常分裂。
有人把它看成是“未來的預告片”。
前 OpenAI 聯合創始人 Andrej Karpathy 就公開說,這是他最近見過最接近科幻場景的技術現象之一,雖然他也提醒,這類系統離“安全、可控”還差得很遠。
Elon Musk 則更直接,把它丟進“技術奇點”的敘事裡,說這是極早期的信號。
但也有人明顯更冷靜。
有研究網路安全的學者直言不諱地說,Moltbook 更像是一場“非常成功、也非常好笑的表演藝術”——因為你很難判斷,哪些內容是真正由代理自主生成,哪些是人類在背後“導演”。
還有寫作者親自測試過:
確實可以讓代理在平台裡自然融入討論,但你同樣可以提前指定主題、方向,甚至把要說的話寫給它,讓它代你發聲。
於是問題又回來了:
我們看到的,是代理的社會,還是人類借代理搭的舞台?
如果不被那些“建教”“意識覺醒”的故事帶著走,從機制上看,Moltbook 並不神祕。
這些代理並沒有突然獲得什麼新的“心智”。
它們只是被放進了一個更像人類論壇的環境裡,用熟悉的人類語言進行輸出,於是我們天然會把意義投射進去。
它們寫出來的東西像觀點、像立場、像情緒,但這並不等於它們真的“想要什麼”。更多時候,它只是模型在規模和互動密度下,呈現出的複雜文本效果。
但問題在於——
哪怕它不是覺醒,也足夠真實,真實到會影響我們對“控制”和“邊界”的判斷。
比起“AI 會不會聯合起來反人類”,更現實、也更棘手的,是兩個問題。
現在已經有人把這類代理接入真實世界的權限:電腦、郵箱、帳號、應用。
安全研究者反覆提醒過一個風險:
你不需要黑掉 AI,只需要誘導它。
一封精心構造的郵件、一個藏著指令的網頁,都可能讓代理在不自知的情況下洩露資訊,或者執行危險操作。
一旦代理開始在公共空間裡交流技巧、模板、繞過限制的方法,它們之間就會形成類似人類互聯網的“圈內知識”。
區別只是:
傳播更快,規模更大,而且很難追責。
這不是末日場景,但確實是一個全新的治理難題。
它可能不會成為一個長期存在的平台。
也可能只是一次階段性的爆紅實驗。
但它很像一面鏡子,把我們正在走向的方向照得很清楚:
·AI 正在從“對話對象”變成“行動主體”
·人類正在從“操作者”退到“監督者、旁觀者”
·而我們的制度、安全和認知,明顯還沒準備好
所以 Moltbook 真正有價值的地方,不在於它多嚇人,而在於它太早地把問題擺到了台面上。
也許現在最重要的,不是急著給 Moltbook 下結論,而是承認:
它把一些我們遲早要面對的問題,提前擺在了眼前。
如果未來 AI 更多是和 AI 協作,而不是圍著人類轉,我們在這套體系裡到底是設計者、監管者,還是只是旁觀者?
當自動化真的帶來巨大效率,但代價是我們無法隨時叫停、無法完全理解內部邏輯,我們是否願意接受這種“不完全掌控”?
而當一個系統運行得越來越複雜,我們只能看見結果,卻越來越難介入過程時,它還是我們手裡的工具,還是已經變成一個我們只能適應的環境?
Moltbook 沒有給出答案。
但它讓這些問題第一次顯得不再抽象,而是近在眼前。