Openclaw体験記 vol.5 — OllamaをOpenclawに繋げるまでの道
Zenn / 2026/4/13
💬 オピニオンDeveloper Stack & InfrastructureTools & Practical Usage
要点
- Openclawを使いローカルLLM環境を構築する流れの「体験記vol.5」として、OllamaをOpenclawに接続するまでを手順中心に整理しています
- 具体的に、Ollama側の実行・公開方法からOpenclaw側での参照/設定までの“繋げるための道筋”が述べられており、詰まりやすいポイントの解消が主眼です
- ローカルでLLMを回しつつ、Openclawの利用体験へ統合することで、開発・検証のサイクルを短くする意図が読み取れます
- LLM連携の実装ノウハウ(ツール間の接続設定)にフォーカスした実践的な内容で、再現可能性を重視しています
!
この記事は貧弱GPUをローカルLLMと繋げようとした体験記です。
技術的な正確さより、体験の正直さを優先して書いています。
vol.4でOllamaが動いた。ターミナルで日本語が返ってきた。
でも、それはただのターミナルチャットだ。目標はDiscordのBOTとして動かすこと——Openclawと繋げることだ。
まずOpenclawの設定を変える
Openclawは~/.openclaw/openclaw.jsonで動作を制御している。
ここにモデルの指定がある。デフォルトはAnthropicのAPIを使う設定になっているが、Ollamaを使うように書き換えればいい——そう思...
この記事の続きは原文サイトでお読みいただけます。
原文を読む →



