Gate News 消息,3 月 16 日,本地大模型運行工具 Ollama 今日宣布正式成為 OpenClaw 的官方模型提供商。用戶執行 openclaw onboard --auth-choice ollama 命令即可完成接入,所有 Ollama 模型將與 OpenClaw 實現無縫協作。Ollama 此次接入提供 Cloud + Local 混合模式,用戶可同時使用 Ollama 雲端托管的模型和本地運行的模型。OpenClaw 的引導向導會自動檢測本地已安裝的 Ollama 模型,並通過 Ollama 原生 API 支持流式傳輸和工具調用。OpenClaw 創始人 Peter Steinberger 參與了此次集成的審核工作。