広告

OpenClawを解き放て

Hugging Face Blog / 2026/3/27

💬 オピニオンTools & Practical Usage

要点

  • Hugging Faceの2026年3月27日付の記事「Liberate your OpenClaw」は、更新のための関連GitHubマークダウンソースを伴うブログ投稿ページとして提示されています。
  • 内容は、単なる短い告知というよりも「OpenClaw」に焦点を当てたガイド付きの解説(おそらく、使い方の説明や調整、改善方法など)になっているようです。
  • ページ構造には、ページ内ナビゲーション、公開日、そして読者がGitHub上の下書きを表示または更新できるためのリンクが含まれています。
  • この記事は、ユーザーが「OpenClawを解き放ち」、それを効果的に運用できるようにすることを目的とした、説明/ハウツー形式のリソースとして構成されています。
  • 読者はメインの「Articles」セクションへ戻るよう案内されており、これは一度きりのニュースイベントではなく教育目的のブログエントリーであることが強調されています。

OpenClaw を解放せよ

2026年3月27日 公開
GitHubで更新内容を表示

AnthropicはPro/Maxサブスクライバー向けのオープンエージェントプラットフォームで、Claudeモデルへのアクセスを制限しています。心配しないでください。エージェントを動かし続けるために、Hugging Faceには優れたオープンモデルがあります!その多くは、コストのほんの一部で済みます。

もし遮断されていて、OpenClaw、Pi、またはOpen Codeのエージェントを復旧する必要があるなら、次の2つの方法でオープンモデルに移行できます:

  1. Hugging Face Inference Providersを通じて提供されるオープンモデルを利用する。
  2. 自分のハードウェア上で、完全にローカルのオープンモデルを動かす。

ホスト型のルートは、能力のあるエージェントに素早く戻るための最短ルートです。ローカル型は、プライバシーを重視したいこと、APIコストがゼロであること、そして完全な制御が欲しいことが理由なら最適です。

そのためには、claude code、cursor、またはお気に入りのエージェントにこう伝えて、このページへのリンクを貼るだけです: help me move my OpenClaw agents to Hugging Face models

Hugging Face Inference Providers

Hugging Faceの推論プロバイダーは、オープンソースのモデル提供元へルーティングするオープンプラットフォームです。最良のモデルを使いたい場合、または必要なハードウェアがない場合に適した選択です。

まず、こちらでトークンを作成する必要があります。次に、そのトークンをこのようにopenclawに追加できます:

openclaw onboard --auth-choice huggingface-api-key

プロンプトが表示されたらHugging Faceのトークンを貼り付けると、モデルの選択を求められます。

GLM-5をおすすめします。理由は優れたTerminal Benchのスコアがあるからです。ただし、選べるモデルはこちらのとおり何千もあります。

OpenClawの設定でrepo_idを入力すれば、いつでもHugging Faceのモデルを更新できます:

{
  agents: {
    defaults: {
      model: {
        primary: "huggingface/zai-org/GLM-5:fastest"
      }
    }
  }
}

注:HF PROのサブスクライバーは毎月、推論プロバイダーの利用に適用される$2分の無料クレジットを受け取れます。詳しくはこちら

ローカルセットアップ

モデルをローカルで動かすと、完全なプライバシーが得られ、APIコストはゼロになり、レート制限なしで試せるようになります。

リソースの少ない推論向けの、完全にオープンソースのライブラリであるLlama.cppをインストールしてください。

# macまたはlinuxの場合
brew install llama.cpp

# windowsの場合
winget install llama.cpp

内蔵のWeb UI付きでローカルサーバーを起動します:

llama-server -hf unsloth/Qwen3.5-35B-A3B-GGUF:UD-Q4_K_XL

ここでは、32GBのRAMでうまく動くQwen3.5-35B-A3Bを使っています。要件が異なる場合は、興味のあるモデルのハードウェア互換性を確認してください。選べるモデルは何千もあります

llama.cppでGGUFを読み込むなら、次のようなOpenClaw設定を使ってください:

返却形式: {"translated": "翻訳されたHTML"}
openclaw onboard --non-interactive \                                                                                   
   --auth-choice custom-api-key \                                                                                         
   --custom-base-url "http://127.0.0.1:8080/v1" \                                                                           
   --custom-model-id "unsloth-qwen3.5-35b-a3b-gguf" \                                                                       
   --custom-api-key "llama.cpp" \                                                                                         
   --secret-input-mode plaintext \                                                                                        
   --custom-compatibility openai

サーバーが起動しており、モデルが読み込まれていることを確認します:

curl http://127.0.0.1:8080/v1/models

どのルートを選ぶべきですか?

最も素早く、能力のあるOpenClawエージェントに戻したいなら、Hugging Face Inference Providersを使ってください。プライバシーを重視し、完全にローカルで制御したい場合、またAPI料金を発生させたくない場合はllama.cppを使います。

どちらにしても、クローズドなホスト型モデルを用意しなくてもOpenClawを立て直せます!

コミュニティ

編集プレビュー
テキスト入力にドラッグして画像、音声、動画をアップロードするか、貼り付け、またはここをクリックしてください。
ここをタップするか貼り付けて、画像をアップロード
コメント

· 登録 または ログインしてコメント

広告