OpenClaw を解放せよ
もし遮断されていて、OpenClaw、Pi、またはOpen Codeのエージェントを復旧する必要があるなら、次の2つの方法でオープンモデルに移行できます:
- Hugging Face Inference Providersを通じて提供されるオープンモデルを利用する。
- 自分のハードウェア上で、完全にローカルのオープンモデルを動かす。
ホスト型のルートは、能力のあるエージェントに素早く戻るための最短ルートです。ローカル型は、プライバシーを重視したいこと、APIコストがゼロであること、そして完全な制御が欲しいことが理由なら最適です。
そのためには、claude code、cursor、またはお気に入りのエージェントにこう伝えて、このページへのリンクを貼るだけです: help me move my OpenClaw agents to Hugging Face models。
Hugging Face Inference Providers
Hugging Faceの推論プロバイダーは、オープンソースのモデル提供元へルーティングするオープンプラットフォームです。最良のモデルを使いたい場合、または必要なハードウェアがない場合に適した選択です。
まず、こちらでトークンを作成する必要があります。次に、そのトークンをこのようにopenclawに追加できます:
openclaw onboard --auth-choice huggingface-api-key
プロンプトが表示されたらHugging Faceのトークンを貼り付けると、モデルの選択を求められます。
GLM-5をおすすめします。理由は優れたTerminal Benchのスコアがあるからです。ただし、選べるモデルはこちらのとおり何千もあります。
OpenClawの設定でrepo_idを入力すれば、いつでもHugging Faceのモデルを更新できます:
{
agents: {
defaults: {
model: {
primary: "huggingface/zai-org/GLM-5:fastest"
}
}
}
}
注:HF PROのサブスクライバーは毎月、推論プロバイダーの利用に適用される$2分の無料クレジットを受け取れます。詳しくはこちら。
ローカルセットアップ
モデルをローカルで動かすと、完全なプライバシーが得られ、APIコストはゼロになり、レート制限なしで試せるようになります。
リソースの少ない推論向けの、完全にオープンソースのライブラリであるLlama.cppをインストールしてください。
# macまたはlinuxの場合
brew install llama.cpp
# windowsの場合
winget install llama.cpp
内蔵のWeb UI付きでローカルサーバーを起動します:
llama-server -hf unsloth/Qwen3.5-35B-A3B-GGUF:UD-Q4_K_XL
ここでは、32GBのRAMでうまく動くQwen3.5-35B-A3Bを使っています。要件が異なる場合は、興味のあるモデルのハードウェア互換性を確認してください。選べるモデルは何千もあります。
llama.cppでGGUFを読み込むなら、次のようなOpenClaw設定を使ってください:
返却形式: {"translated": "翻訳されたHTML"}openclaw onboard --non-interactive \
--auth-choice custom-api-key \
--custom-base-url "http://127.0.0.1:8080/v1" \
--custom-model-id "unsloth-qwen3.5-35b-a3b-gguf" \
--custom-api-key "llama.cpp" \
--secret-input-mode plaintext \
--custom-compatibility openai
サーバーが起動しており、モデルが読み込まれていることを確認します:
curl http://127.0.0.1:8080/v1/models
どのルートを選ぶべきですか?
最も素早く、能力のあるOpenClawエージェントに戻したいなら、Hugging Face Inference Providersを使ってください。プライバシーを重視し、完全にローカルで制御したい場合、またAPI料金を発生させたくない場合はllama.cppを使います。
どちらにしても、クローズドなホスト型モデルを用意しなくてもOpenClawを立て直せます!



