newsence
解放你的 OpenClaw

解放你的 OpenClaw

Huggingface·10 天前

這份指南說明了如何將 OpenClaw 代理遷移至開源模型,您可以選擇使用 Hugging Face 推理提供商以快速恢復功能,或是使用 llama.cpp 來實現本地隱私與零成本運行。

解放您的 OpenClaw 🦀

如果您被切斷了連線,而您的 OpenClaw、Pi 或 Open Code 代理程式需要復甦,您可以透過兩種方式將它們遷移到開源模型:

代管途徑(Hosted route)是恢復強大代理程式最快的方法。如果您追求隱私、零 API 成本及完全控制權,則本地途徑(Local route)是正確的選擇。

若要執行此操作,只需告訴您的 Claude Code、Cursor 或您最喜歡的代理程式:幫我將 OpenClaw 代理程式遷移到 Hugging Face 模型,並附上此頁面連結。

Hugging Face 推論提供商 (Inference Providers)

Hugging Face 推論提供商是一個開放平台,可將請求路由至開源模型的提供商。如果您想要最好的模型,或者您沒有必要的硬體設備,這是正確的選擇。

首先,您需要在此處建立一個 Token。然後您可以像這樣將該 Token 新增到 OpenClaw:

在提示時貼上您的 Hugging Face Token,系統會要求您選擇一個模型。

我們推薦 GLM-5,因為它在 Terminal Bench 評分中表現優異,但這裡有數千個模型可供選擇。

您可以隨時在 OpenClaw 設定中輸入 repo_id 來更新您的 Hugging Face 模型:

注意:HF PRO 訂閱者每月可獲得 2 美元的免費額度,可用於推論提供商服務,在此了解更多資訊。

本地設置

在本地運行模型可為您提供完全的隱私、零 API 成本,以及在沒有速率限制的情況下進行實驗的能力。

安裝 Llama.cpp,這是一個用於低資源推論的完全開源函式庫。

啟動帶有內建 Web UI 的本地伺服器:

在這裡,我們使用的是 Qwen3.5-35B-A3B,它在 32GB RAM 上運行良好。如果您有不同的需求,請查看您感興趣模型的硬體相容性。有數千個模型可供選擇。

如果您在 llama.cpp 中載入 GGUF,請使用如下的 OpenClaw 設定:

驗證伺服器是否正在運行且模型已載入:

您應該選擇哪條路徑?

如果您想以最快路徑恢復強大的 OpenClaw 代理程式,請使用 Hugging Face 推論提供商。如果您想要隱私、完全的本地控制且無需支付 API 帳單,請使用 llama.cpp。

無論哪種方式,您都不需要封閉的代管模型就能讓 OpenClaw 重新運作!

更多來自我們部落格的文章

Image

開放回應:您需要知道的事

Image

VibeGame:探索 Vibe Coding 遊戲

社群

· 註冊或登入以發表評論

https://huggingface.co/blog/liberate-your-openclaw