凍結したデコーダのみLLMに対する学習済み永続メモリ

arXiv cs.AI / 2026/3/25

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、これまで凍結エンコーダ・デコーダ型LLMで示されてきた学習済みの永続メモリアダプタが、永続性をクロスアテンションではなく自己アテンションを通じて注入する必要があるデコーダのみ(GPTスタイル)モデルにも転用可能かを検討する。
  • 6つのメモリ手法(プレフィックス、並列クロスアテンション、KV拡張、ヘッブ記憶、コンテキストゲート付き分岐、スロットベースの疎書き)を、凍結したGPT-2へ適用し、バックボーンは固定したまま小さなメモリアダプタのみを学習するように調整する。
  • LoCoMoでの実験では、1×の容量において帰納バイアスのギャップが見られる。強いアーキテクチャ上の事前知識を持つ3手法(クロスアテンションによるリード注入、ヘッブ記憶、スロット書き)は、保持メモリスコア7〜18%および知識増分7〜10を達成する一方、残りの3手法はほとんど失敗する(<0.4%)。
  • 10×の容量では、6つの手法すべてで性能が収束する。これは、低容量での不一致が、デコーダのみアーキテクチャの本質的な制限というより、アーキテクチャ上のリード/ライト機構に起因することを示唆している。
  • 著者らは、永続的な潜在空間メモリは主要なトランスフォーマ系列にまたがる一般的なパラダイムであり、これまでのエンコーダ・デコーダの結果と、脳に着想を得たモジュールのアイデアを結び付けると結論づけている。

Abstract

Decoder-only language models are stateless: hidden representations are discarded after every forward pass and nothing persists across sessions. Jeong (2026a) showed that trained memory adapters give a frozen encoder-decoder backbone persistent latent-space memory, building on the lateral-memory framework of Jeong (2026b,c). Here we ask whether the same principle transfers to the decoder-only setting, where no cross-attention pathway exists and memory must enter through self-attention alone. We adapt six methods -- prefix, parallel cross-attention, KV extension, Hebbian memory, context-gated branch, and slot-based sparse write -- to a frozen GPT-2, training only a small adapter \theta_{mem}. The write rule is shared; only the read injection changes from decoder cross-attention to self-attention KV prefix or parallel branch. On LoCoMo we find a striking inductive-bias dichotomy: at 1\times capacity, three methods with strong architectural priors -- cross-attention (M.2), Hebbian (M.4), and slot write (M.6) -- achieve retained-memory scores of 7-18\% and knowledge gains \Delta K of 7-10, while the other three fail (< 0.4\%). At 10\times capacity all six converge, showing the gap is architectural, not fundamental. Together with the encoder-decoder results of Jeong (2026a) and the brain-inspired modules of Jeong (2026b,c), these findings establish persistent latent-space memory as a general paradigm spanning major transformer families.