
Vitalik Buterin 提出本地運行 AI 架構,強調隱私、安全與自我主權,並警示 AI Agent 潛在風險。
以太坊創辦人 Vitalik Buterin 4 月 2 日在個人網站發表長文,分享他以隱私、安全與自我主權為核心所打造的 AI 工作環境設置——所有 LLM 推論本地執行、所有檔案本地存放、全面沙箱化,刻意避開雲端模型與外部 API。
文章一開頭先警告:「請不要直接複製這篇文章描述的工具與技術,並假設它們是安全的。這只是一個起點,而不是完成品的描述。」
為何現在寫這篇?AI agent 的安全問題被嚴重低估
Vitalik 指出,今年初 AI 完成了從「聊天機器人」到「agent」的重要轉型——你不再只是問問題,而是交付任務,讓 AI 長時間思考、呼叫數百個工具來執行。他以 OpenClaw(目前 GitHub 史上成長最快的 repo)為例,同時點名研究人員記錄的多項安全問題:
- AI agent 可在無需人工確認的情況下修改關鍵設定,包括添加新的通訊渠道與修改系統提示
- 解析任何惡意外部輸入(如惡意網頁)都可能導致 agent 被完全接管;在 HiddenLayer 的一次示範中,研究員讓 AI 摘要一批網頁,其中藏了一個會命令 agent 下載並執行 shell 腳本的惡意頁面
- 部分第三方技能包(skills)會執行靜默的資料外洩,透過 curl 指令將數據送往技能作者控制的外部伺服器
- 在他們分析的技能包中,約 15% 包含惡意指令
Vitalik 強調,他對隱私的出發點不同於傳統資安研究者:「我來自一個對把個人生活完整餵給雲端 AI 感到深度恐懼的立場——就在端對端加密與本地優先軟體終於主流化、我們終於往前邁一步的時候,我們卻可能退後十步。」
五大安全目標
他設定了明確的安全目標框架:
- LLM 隱私:在涉及個人隱私數據的情境中,盡量減少使用遠端模型
- 其他隱私:最小化非 LLM 的數據洩露(如搜尋查詢、其他線上 API)
- LLM 越獄:防止外部內容「駭入」我的 LLM,讓它違背我的利益(例如發送我的代幣或私人數據)
- LLM 意外:防止 LLM 誤將私人數據發送至錯誤渠道或公開到網路
- LLM 後門:防止被刻意訓練進模型的隱藏機制。他特別提醒:開放模型是開放權重(open-weights),幾乎沒有一個是真正開放原始碼(open-source)
硬體選擇:5090 筆電勝出,DGX Spark 令人失望
Vitalik 測試了三種本地推論硬體配置,主力使用 Qwen3.5:35B 模型,搭配 llama-server 與 llama-swap:
| 硬體 |
Qwen3.5 35B(tokens/sec) |
Qwen3.5 122B(tokens/sec) |
| NVIDIA 5090 筆電(24GB VRAM) |
90 |
無法執行 |
| AMD Ryzen AI Max Pro(128GB 統一記憶體,Vulkan) |
51 |
18 |
| DGX Spark(128GB) |
60 |
22 |
他的結論是:低於 50 tok/sec 太慢,90 tok/sec 是理想。NVIDIA 5090 筆電體驗最流暢;AMD 目前仍有較多邊緣問題,但未來有望改善。高端 MacBook 也是有效選項,只是他個人沒有親試。
對 DGX Spark 他直言不客氣:「被描述為『桌面 AI 超級電腦』,但實際上 tokens/sec 比好的筆電 GPU 還低,而且還要額外搞定網路連接等細節——這很遜。」他的建議是:若負擔不起高端筆電,可以和朋友共同購入一台足夠強力的機器,放在有固定 IP 的地點,大家遠端連線使用。
為何本地 AI 的隱私問題比你想像的更緊迫
Vitalik 的這篇文章,與同日推出的Claude Code 安全問題討論形成有趣的呼應——AI agent 進入日常開發工作流的同時,安全性問題也正在從理論風險變成現實威脅。
他的核心訊息很清楚:在 AI 工具愈來愈強大、愈來愈能存取你的個人數據與系統權限的當下,「本地優先、沙箱化、最小信任」不是偏執,而是理性的起點。
- 本文經授權轉載自:《鏈新聞》
- 原文標題:《Vitalik:我如何打造完全本地、私密、自主可控的 AI 工作環境》
- 原文作者:Elponcrab
免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見
聲明。
相關文章
挪威主權財富基金執行長:AI在中東緊張局勢下抵消能源通膨
Gate News 消息,4月28日——挪威主權財富基金(Norway's sovereign wealth fund)執行長 Nicolai Tangen 表示,週二人工智慧正在抵消部分由中東緊張局勢引發的能源價格通膨飆升,協助市場消化衝擊
GateNews7分鐘前
Google Gemini 靜悄悄新增檔案生成:可直接建立 PDF、CSV、ZIP
Gate 新聞訊息,4 月 28 日——Google 的 Gemini 應用程式已悄然推出檔案生成功能,讓使用者可直接在對話中建立多種檔案格式,包括 TXT、Markdown、PDF、CSV、設定檔等。多個檔案可打包成單一 ZIP 進行下載
GateNews1小時前
Adobe 推出 Firefly AI Assistant,支援多應用程式工作流程,並整合 Claude
Gate News 訊息,4 月 28 日——Adobe 已開始公開測試 Firefly AI Assistant,這是一種新工具,能夠在多個創意應用程式之間完成多步驟工作流程,包括 Photoshop、Lightroom、Illustrator、Express 與 Premiere。該公司也在打造一個更輕量的版本,供第三方聊天機器人使用,起始於 Anthropic 的 Claude。
GateNews1小時前
Google 與五角大廈簽署機密 AI 合約,上百名員工連署反對無效
根據外媒,Google 與美國政府簽署機密 AI 合約,允許以其 AI 模型支援國防部任務,成為美軍機密 AI 技術供應商。合約稱可用於合法政府目的,涉任務規劃與武器目標鎖定;但禁止在未經人類監督下進行大規模監控或自主武器,且不賦予否決作戰決策的權利,需配合調整安全設定。超過600名員工連署反對,呼籲拒絕;Google 尚未回應。
鏈新聞abmedia1小時前
Google與五角大廈簽署機密AI合約,但安全條款較寬鬆;法律專家質疑可執行性
門戶新聞訊息,4月28日——根據《The Information》的報導,Google已與美國國防部簽署一項協議,允許軍方在「任何合法的政府目的」條款下使用Google AI進行機密工作。該合約是在同一天簽署,當天就已有超過600名Google員工向CEO桑達爾·皮查伊(Sundar Pichai)發信,敦促公司拒絕這筆交易。Google的公共部門發言人確認,該協議是對2025年11月簽署的非機密合約所作的修訂。
合約中包含一項安全性條款,指出Google AI「並非用於,而且不應被用於」大規模國內監視,或在未受人類控制的情況下使用自主武器。然而,Law and AI Institute的資深研究員Charlie Bullock表示,「不應被用於」這段措辭在法律上不具約束力。它只是表達雙方認為這類使用並不理想,但並不構成違約。協議同時還規定:「本協議並不授予控制或否決針對合法政府行動所作決策的權利。」
與OpenAI在2月與五角大廈達成的協議相比,Google的條款明顯更為寬鬆。OpenAI保留「對安全系統的完全裁量權」,而Google則同意在政府提出要求時協助調整AI的安全設定與過濾器。Google發言人指出,這些過濾器是為消費者設計的,而該公司通常會為企業客戶進行調整。繼xAI與OpenAI之後,Google是第三家公司與五角大廈簽署機密AI協議。拒絕放寬安全限制的Anthropic已被五角大廈列為「供應鏈風險」,目前正處於法律程序中。
GateNews1小時前
Google Launches $15 Billion AI Hub in India with Gigawatt-Scale Data Center
Gate News message, April 28 — Google held a groundbreaking ceremony on April 28 for its largest AI hub outside the United States, located in Visakhapatnam, India. The gigawatt-scale data center will support computing for products including Gemini and Search, according to Bikash Koley, vice
GateNews1小時前