しばらくオープンソースから離れていました。しかし最近のLLMの爆発的な広がりで好奇心が再燃して——そして、どうしても消えない疑問がありました:
なぜこれらのモデルは、非常に強力なのにとても忘れっぽいのでしょう?
答えはその設計にあります。LLMは「推論器」と「知識ベース」の両方として訓練されます——それが融合され、学習時に凍結された状態になります。その日のうちにモデルが知っていることは、すべてが将来にわたって知り得るすべてです。見事な推論。成長ゼロ。
何か新しいことが起きたとき——会話、意思決定、失敗など——そこに行き場がありません。回避策はつらいものです:モデルを再学習する、コンテキストウィンドウに詰め込む、RAGを使う。どれも「記憶」ではありません。単なるガムテープです。
そこで私はStashを作りました。LLMを直すためではありません——それが残すギャップを埋めるためです。エージェントが体験したことをキャプチャし、それを知識グラフに合成し、目標を追跡し、失敗から学び、セッションをまたいで推論する自己ホスト型のレイヤーです。モデル自体は凍結されたまま。Stashが育つのです。
この領域には他にもいろいろな実験があるのは知っています——それは良い兆候です。問題は本物です。Stashは、そのための私の正直な答えです。
産業が「仕事を最後までやり切る」のを忘れてしまったと思った人によって作られました——そして、どんな分野でも最も危険な言葉はいつもこれだと信じてきた人によって:「それは、ただそういうものなんだ。」
Github: https://alash3al.github.io/stash





