解放你的 OpenClaw
這份指南說明了如何將 OpenClaw 代理遷移至開源模型,您可以選擇使用 Hugging Face 推理提供商以快速恢復功能,或是使用 llama.cpp 來實現本地隱私與零成本運行。
解放您的 OpenClaw 🦀
如果您被切斷了連線,而您的 OpenClaw、Pi 或 Open Code 代理程式需要復甦,您可以透過兩種方式將它們遷移到開源模型:
代管途徑(Hosted route)是恢復強大代理程式最快的方法。如果您追求隱私、零 API 成本及完全控制權,則本地途徑(Local route)是正確的選擇。
若要執行此操作,只需告訴您的 Claude Code、Cursor 或您最喜歡的代理程式:幫我將 OpenClaw 代理程式遷移到 Hugging Face 模型,並附上此頁面連結。
Hugging Face 推論提供商 (Inference Providers)
Hugging Face 推論提供商是一個開放平台,可將請求路由至開源模型的提供商。如果您想要最好的模型,或者您沒有必要的硬體設備,這是正確的選擇。
首先,您需要在此處建立一個 Token。然後您可以像這樣將該 Token 新增到 OpenClaw:
在提示時貼上您的 Hugging Face Token,系統會要求您選擇一個模型。
我們推薦 GLM-5,因為它在 Terminal Bench 評分中表現優異,但這裡有數千個模型可供選擇。
您可以隨時在 OpenClaw 設定中輸入 repo_id 來更新您的 Hugging Face 模型:
注意:HF PRO 訂閱者每月可獲得 2 美元的免費額度,可用於推論提供商服務,在此了解更多資訊。
本地設置
在本地運行模型可為您提供完全的隱私、零 API 成本,以及在沒有速率限制的情況下進行實驗的能力。
安裝 Llama.cpp,這是一個用於低資源推論的完全開源函式庫。
啟動帶有內建 Web UI 的本地伺服器:
在這裡,我們使用的是 Qwen3.5-35B-A3B,它在 32GB RAM 上運行良好。如果您有不同的需求,請查看您感興趣模型的硬體相容性。有數千個模型可供選擇。
如果您在 llama.cpp 中載入 GGUF,請使用如下的 OpenClaw 設定:
驗證伺服器是否正在運行且模型已載入:
您應該選擇哪條路徑?
如果您想以最快路徑恢復強大的 OpenClaw 代理程式,請使用 Hugging Face 推論提供商。如果您想要隱私、完全的本地控制且無需支付 API 帳單,請使用 llama.cpp。
無論哪種方式,您都不需要封閉的代管模型就能讓 OpenClaw 重新運作!
更多來自我們部落格的文章
![]()
開放回應:您需要知道的事
![]()
VibeGame:探索 Vibe Coding 遊戲
社群
· 註冊或登入以發表評論