Openclaw体験記 vol.5 — OllamaをOpenclawに繋げるまでの道

Zenn / 2026/4/13

💬 オピニオンDeveloper Stack & InfrastructureTools & Practical Usage

要点

  • Openclawを使いローカルLLM環境を構築する流れの「体験記vol.5」として、OllamaをOpenclawに接続するまでを手順中心に整理しています
  • 具体的に、Ollama側の実行・公開方法からOpenclaw側での参照/設定までの“繋げるための道筋”が述べられており、詰まりやすいポイントの解消が主眼です
  • ローカルでLLMを回しつつ、Openclawの利用体験へ統合することで、開発・検証のサイクルを短くする意図が読み取れます
  • LLM連携の実装ノウハウ(ツール間の接続設定)にフォーカスした実践的な内容で、再現可能性を重視しています
! この記事は貧弱GPUをローカルLLMと繋げようとした体験記です。 技術的な正確さより、体験の正直さを優先して書いています。 vol.4でOllamaが動いた。ターミナルで日本語が返ってきた。 でも、それはただのターミナルチャットだ。目標はDiscordのBOTとして動かすこと——Openclawと繋げることだ。 まずOpenclawの設定を変える Openclawは~/.openclaw/openclaw.jsonで動作を制御している。 ここにモデルの指定がある。デフォルトはAnthropicのAPIを使う設定になっているが、Ollamaを使うように書き換えればいい——そう思...

この記事の続きは原文サイトでお読みいただけます。

原文を読む →