要旨: 大規模言語モデル(LLMs)は前向き干渉(PI)に悩まされる。文脈ウィンドウ内の時代遅れの情報が現在の値の検索を妨げる。この干渉は、古くなった連想が蓄積するにつれて検索精度を対数的に低下させ、文脈長に関係なくボトルネックとなり、プロンプトエンジニアリングによる緩和策にも抵抗する。生物学的な脳は、睡眠依存的な記憶の統合を通じて類似の課題を解決する。シナプスのダウンスケーリング、選択的リプレイ、そして標的忘却。私たちは SleepGate を提案します。これは、トランスフォーマー型LLMs を、キー・値(KV)キャッシュ上の学習済み睡眠サイクルで拡張する、生物学的に着想を得たフレームワークです。SleepGate は3つのメカニズムを導入します:(1) 新しいエントリが古いエントリを上回るときに検出する、競合を認識した時系列タグ付け機構;(2) 老朽化したキャッシュエントリを選択的に追い出すまたは圧縮するよう訓練された軽量な忘却ゲート;(3) 生存エントリを凝縮し、コンパクトな要約に統合する統合モジュール。これらのコンポーネントは、推論中の睡眠マイクロサイクルの間に定期的に作動し、適応的エントロピーに基づくトリガーによって制御されます。覚醒フェーズでの言語モデリングと睡眠フェーズでの統合後の検索を共同で最適化する、二相トレーニング目的を定式化します。理論分析は、SleepGate が干渉の範囲を O(n) から O(log n) に低減することを示します。4層、793Kパラメータの小規模トランスフォーマーを用いた実験では、SleepGate は PI 深さ5 で 99.5% の検索精度、深さ10 で 97.0% を達成しました。 一方、全5つのベースライン――全KVキャッシュ、スライディングウィンドウ、H2O、StreamingLLM、減衰のみのアブレーション――はいずれも 18% を下回りました。私たちのフレームワークは、プロンプトエンジニアリングでは対処できないアーキテクチャレベルの解決策を提供します。
忘却を学ぶ: 大規模言語モデルにおける前向き干渉を解消する睡眠由来の記憶統合
arXiv cs.AI / 2026/3/17
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- SleepGate は、トランスフォーマー型の大規模言語モデルにおける KV キャッシュを管理することで、前向き干渉を緩和する睡眠のような推論サイクルを提案します。
- 衝突を認識する時系列タグ付け機構、軽量な忘却ゲート、古くなったエントリを追い出して圧縮し、残りを要約する統合モジュールの3つの要素を導入します。
- 推論睡眠サイクルは適応的なエントロピーに基づくトリガーによって支配され、使用時の言語モデリングと統合後の取得を目的とした二段階の目的関数で訓練されます。
- 理論分析により、干渉のホライズンが O(n) から O(log n) に縮小し、文脈長が長くなるにつれて取得が改善します。
- 小規模な4層トランスフォーマ(793K パラメータ)では、PI深さ5で取得精度99.5%、深さ10で97.0%を示し、ベースラインを上回り、プロンプト設計を超えるアーキテクチャレベルの解決策を示唆します。

