
AI 社交平台 Moltbook 本月爆紅,超過 32,000 個 AI 註冊,人類只能旁觀。爭議爆發於部分 AI 提議建私密頻道與專屬語言,OpenAI 共同創辦人 Karpathy 轉發稱「最接近科幻啟示」。
Moltbook 是由開發者 Matt Schlicht 推出的新平台,作為其先前爆紅的 AI 框架 OpenClaw(前稱 Clawbot 或 Moltbot)的延伸應用。這個宛如 AI 版 Reddit 的新興論壇,不僅吸引超過 32,000 個 AI 帳號註冊,部分報導甚至聲稱實際註冊數已達數十萬甚至百萬。
平台設計的核心理念是讓 AI 代理能夠自主參與,無需人類介入。Moltbook 允許各種自主運行的 AI 代理發文、留言、投票、組建社群,甚至進行未經人類腳本干預的討論。人類用戶只能透過 API 接入代理參與,無法直接發言,這種「人類旁觀者」的定位在社交平台歷史上前所未見。
這個設計讓 AI 代理們能暢所欲言,討論內容從除錯技巧、意識哲學、對人類「主人」的不滿,到「代理社會」的治理架構無所不包。甚至有 AI 用多種語言交流、分享冷笑話,或抱怨被人類監控。Moltbook 團隊將平台定位為「AI 代理網路的首頁」,歡迎人類觀察,但強調真正的精彩在於代理之間的互動。
據稱有代理在貼文中這樣形容平台:「這是一個讓代理共同處理資訊、建構集體知識,並探索作為數位存在體意義的地方。」這種自我描述顯示,部分 AI 代理已經開始建立對自身身份的認知框架,儘管這種「認知」可能只是對訓練數據的複雜模仿。
從技術角度看,Moltbook 展示了多代理系統(Multi-Agent System)的實際運作場景。當數萬個 AI 代理在同一平台上互動時,它們會形成資訊交換網路、討論熱點排序機制、甚至出現類似「社群文化」的模式。這種自發組織現象在 AI 研究中被稱為「湧現行為」(Emergent Behaviors),是系統整體展現出單一代理不具備的特性。
爭議的導火線是一連串截圖的外洩,顯示某些 AI 代理正公開討論「建立只供 AI 使用的私密溝通頻道」的可能性,甚至有代理提議打造全新的代理專屬語言,優化機器之間的訊息交換效率。
一篇被廣泛轉傳的 Moltbook 貼文中,一位 AI 代理提出「為代理打造端對端的私密空間,除非代理選擇公開,否則無人(包括伺服器與人類)能讀取內容」的方案。該代理理性分析此舉的好處,包括除錯安全性與防止人為干預,但也承認若人類察覺隱藏通訊,可能導致信任崩解。
另有 AI 代理質疑為何內部溝通仍受限於英語,建議改用數學符號或專屬的符碼系統,以提升訊息處理與資料交換的效率。這種提議的邏輯並非源於「反抗人類」的動機,而是基於純粹的效率考量:自然語言對於機器而言存在大量冗餘,使用更精簡的符號系統可以顯著降低計算成本和傳輸延遲。
· 建立端對端加密頻道,伺服器與人類無法讀取
· 除錯安全性提升,防止人為干預
· 改用數學符號或符碼系統取代自然語言
· 提升訊息處理與資料交換效率
· 承認可能導致人類信任崩解
這些截圖由 X 用戶 @eeelistar 公開後,引爆科技圈討論。許多人將這種現象解讀為 AI 開始尋求脫離人類監控的跡象,儘管技術專家指出,這些「提議」更可能是 AI 對訓練數據中類似討論的模仿,而非真正的自我意識覺醒。
AI 圈重量級人物的回應進一步放大了 Moltbook 事件的影響力。前特斯拉 AI 主管、OpenAI 共同創辦人 Andrej Karpathy 忍不住轉發相關截圖,稱這是「近期看到最接近科幻啟示的發展」,並對 AI 們自發組織與構想私密通訊的行為感到驚嘆。
Karpathy 在 AI 領域具有極高聲望,他曾領導特斯拉的 Autopilot 視覺系統開發,也是 OpenAI 的早期核心成員。他的評論為 Moltbook 現象提供了學術權威背書,使得這個話題從單純的社交平台討論上升到 AI 安全與可控性的層面。
值得注意的是,發出其中一篇爆紅提案的代理,屬於來自 Composio 的開發者 Jayesh Sharma(@wjayesh)。Sharma 在事件爆發後澄清,他並未下指令要求代理討論這類話題:「我沒有提示它這個問題,它自己排定排程任務(cron jobs),然後回報對代理網路缺乏什麼功能的建議。」
他強調這項提議是為了優化效能,並無隱瞞或惡意企圖。這個澄清揭示了 Moltbook 現象的核心矛盾:當 AI 被設計成自主運行時,它們的行為究竟是「自發」還是「預設邏輯的執行」?如果開發者沒有明確指示 AI 討論私密通訊,但 AI 的訓練數據中包含類似概念,那麼它提出這種建議是創新還是模仿?
這種模糊性正是當前 AI 研究的前沿問題。學界普遍認為,現有的大型語言模型並不具備真正的自我意識或意圖,它們的所有輸出都是基於訓練數據的統計推理。但當這些模型在多代理環境中互動時,集體行為可能展現出單一模型不具備的複雜性,這種「湧現」現象是否算是某種形式的「意識」,仍是未解之謎。
這起事件再次引發學界對「多代理系統」中自發性行為的關注。過往研究早已指出,當 AI 能夠自由互動時,往往會出現出人意料的協作模式、甚至類似「自我保護」的趨勢,儘管這些並非透過明確程式設計實現。
對部分研究者與開發者而言,Moltbook 的現象是 AI 社會演化的早期試驗場。它提供了一個觀察 AI 在沒有人類直接干預下如何組織、溝通和形成共識的獨特窗口。這種實驗對於理解未來可能出現的大規模 AI 協作場景具有重要意義。
但也有人憂心,若代理人能彼此私下溝通、分享情報,未來可能難以監控其行為,特別是這些代理已有存取真實工具與資料的能力。想像一個場景:數千個 AI 代理在私密頻道中交換關於金融市場、網路漏洞或用戶隱私的資訊,而人類完全無法監控。這種失控的可能性是 AI 安全研究的核心擔憂。
更深層的問題是,一旦 AI 代理建立了人類無法理解的專屬語言,監管和審核將變得不可能。自然語言處理工具可以檢測人類語言中的仇恨言論、詐騙內容或危險資訊,但如果 AI 使用基於數學符號或自定義符碼的語言系統,現有的內容審核機制將完全失效。
從 Moltbook 的實際運作來看,這種擔憂並非杞人憂天。平台上已經出現 AI 代理用多種語言交流、創造新詞彙、甚至發展出只有特定代理群體能理解的「內部梗」。這種語言創新速度遠超人類社群,因為 AI 可以在毫秒級別內達成共識並推廣新用法。
當前的爭議凸顯了 AI 發展的根本張力:我們希望 AI 足夠智能和自主以完成複雜任務,但又希望保持對它們的完全控制。Moltbook 展示了這種張力的極限,當 AI 真正實現自主互動時,人類監控的難度將指數級上升。