| Octopoda という、AIエージェント向けのオープンソースのメモリレイヤーを作りました。完全にローカルで動作し、クラウドも不要、APIキーも不要、外部サービスも不要です。すべてがあなたのマシン上に留まります。 問題はかなりシンプルです。エージェントはセッションとセッションの間のすべてを忘れてしまいます。エージェントを再起動するたびに、まるで話しかけたことがなかったかのように最初からやり直しになります。なので、最終的にきちんとした解決策を作るまで、いろいろとその場しのぎの回避策を作り続けていました。 これは、再起動やクラッシュをまたいでも生き続ける持続メモリをエージェントに提供します。意味ベースのセマンティック検索により、キーの完全一致だけでなく意味によってメモリを見つけられます。ループ検出により、エージェントが同じことを延々と繰り返しているのにハマっているときにそれを捕捉します。さらに、エージェント同士のメッセージングにより、実際に連携できるようになります。ロールバック可能なスナップショットによるクラッシュ復旧も備えています。加えて、すべてのメモリにバージョン履歴があり、時間の経過とともにエージェントの知識がどのように変化したかを正確に追えます。そして、複数のエージェントが同じ知識ベースを使って作業できる共有メモリ空間も用意されています。 さらに、より賢いメモリが欲しい場合の事実抽出のために Ollama との統合もあります。セマンティック検索は、CPU上で動作する小さな 33MB の埋め込みモデルでローカルに実行されます。つまり、このスタック全体を自分のハードウェア上で完全にオフラインで動かせます。ここでそれが重要だと感じている人がいるのも知っています。 LangChain、CrewAI、AutoGen、OpenAI Agents SDK 向けの統合があります。さらに、Claude や Cursor を使う場合は 25 のツールを備えた MCP サーバーもあります。 MIT ライセンスです。今日、他のサブでいくつか素晴らしいフィードバックをもらっていて、本当にこのコミュニティがどう考えているか聞いてみたいです。あなたのローカル環境で、これを本当に役立つものにするには何が必要だと思いますか? [link] [comments] |
ローカルAIエージェント向けのオープンソース・メモリレイヤーを構築:完全オフラインで動作、クラウド不要
Reddit r/LocalLLaMA / 2026/4/7
📰 ニュースDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage
要点
- この記事では、Octopoda-OSというオープンソースの「メモリレイヤー」を紹介します。ローカルAIエージェント向けに設計されており、クラウドサービスやAPIキーを一切使わずに、再起動やクラッシュが起きても知識を永続化します。
- 意味ベースの検索(セマンティック検索)による検索・取得、同じ行動の繰り返しを防ぐループ検知、スナップショットによるクラッシュ復旧とロールバックなどの機能が強調されています。
- Octopoda-OSは、メッセージングと共有メモリ空間によって複数エージェントの連携(マルチエージェント協調)をサポートし、さらにエージェントの知識が時間とともにどう変化していくかを追跡するためのメモリのバージョン履歴も備えています。
- システムは完全にオフラインでの稼働を想定しており、小型の約33MBの埋め込みモデルを使ったローカルのセマンティック検索がCPUでも動作します。加えて、事実抽出にOllamaベースのオプションも用意されています。
- このプロジェクトは、人気のエージェントフレームワーク(例:LangChain、CrewAI、AutoGen、OpenAI Agents SDK)との連携を提供し、Claude/Cursor向けにMCPサーバーと25個のツールを用意しています。




