GoでAIエージェント向けのオープンソース「認知メモリ層」を作った — 記憶喪失は仕様にすべきではない

Dev.to / 2026/4/25

📰 ニュースDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical UsageModels & Research

要点

  • 本記事は、LLMが「忘れっぽい」に見える理由を、学習時に固定された静的な知識ベースと推論機能が結合されており、学習後に記憶が成長する仕組みがない点に求めています。
  • 記事では、再学習やコンテキストウィンドウの拡大、RAGなどの対処は真の長期記憶ではなく「応急処置(duct tape)」のようだと主張します。
  • 著者は「Stash」を、Goで実装されたAIエージェント向けのオープンソースかつセルフホスト型の認知メモリ層として紹介し、セッションをまたいでエージェントの体験を記録することを目的にしています。
  • Stashは体験を知識グラフに統合し、目標を追跡し、失敗から学習し、基盤となるLLMは固定したまま過去セッションにわたる推論を可能にします。
  • 著者は、エージェントのメモリに残る実際のギャップへの実用的な解答としてStashを位置づけ、プロジェクトのGitHubリンクを共有しています。

しばらくオープンソースから離れていました。しかし最近のLLMの爆発的な広がりで好奇心が再燃して——そして、どうしても消えない疑問がありました:

なぜこれらのモデルは、非常に強力なのにとても忘れっぽいのでしょう?

答えはその設計にあります。LLMは「推論器」と「知識ベース」の両方として訓練されます——それが融合され、学習時に凍結された状態になります。その日のうちにモデルが知っていることは、すべてが将来にわたって知り得るすべてです。見事な推論。成長ゼロ。

何か新しいことが起きたとき——会話、意思決定、失敗など——そこに行き場がありません。回避策はつらいものです:モデルを再学習する、コンテキストウィンドウに詰め込む、RAGを使う。どれも「記憶」ではありません。単なるガムテープです。

そこで私はStashを作りました。LLMを直すためではありません——それが残すギャップを埋めるためです。エージェントが体験したことをキャプチャし、それを知識グラフに合成し、目標を追跡し、失敗から学び、セッションをまたいで推論する自己ホスト型のレイヤーです。モデル自体は凍結されたまま。Stashが育つのです。

この領域には他にもいろいろな実験があるのは知っています——それは良い兆候です。問題は本物です。Stashは、そのための私の正直な答えです。

産業が「仕事を最後までやり切る」のを忘れてしまったと思った人によって作られました——そして、どんな分野でも最も危険な言葉はいつもこれだと信じてきた人によって:「それは、ただそういうものなんだ。」

Github: https://alash3al.github.io/stash