HTM-EAR: 飽和下での重要性を保持する階層型メモリとハイブリッドルーティング
arXiv cs.AI / 2026/3/12
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- HTM-EAR は HNSW ベースの作業メモリ(L1)とアーカイブストレージ(L2)を組み合わせた階層型メモリ基盤で、重要度を考慮した追い出しとハイブリッドルーティングを採用します。
- L1 が容量に達した場合、重要性と使用状況の加重スコアに基づいてアイテムを追い出し、重要な情報を保持します。
- クエリはまず L1 で解決します。類似性や実体のカバレッジが不十分な場合、取得は L2 にフォールバックし、候補はクロスエンコーダで再ランク付けされます。
- 飽和実験では、完全な HTM-EAR がアクティブクエリの精度(MRR = 1.000)を保持し、オラクルの性能に近づきつつ、古くなった履歴の制御された忘却を可能にします。
- 実世界の BGL ログでは、HTM-EAR は MRR 0.336(オラクル 0.370 に近い)を達成し、LRU(0.069)を上回ります。コードは GitHub で公開されています。
長時間実行されるエージェントにおけるメモリ制約は、境界付きの文脈制限の下で蓄積された事実を構造的に管理しつつ、重要な情報を保持することを要求します。我々は HTM-EAR を導入します。これは HNSW ベースの作業メモリ(L1)とアーカイブストレージ(L2)を統合した階層的メモリ基盤で、重要度を考慮した追い出しとハイブリッドルーティングを組み合わせます。L1 が容量に達した場合、重要性と使用状況の加重スコアに基づいてエントリを追い出します。クエリはまず L1 で解決されます。類似性や実体のカバレッジが不十分な場合、取得は L2 にフォールバックし、候補はクロスエンコーダを用いて再ランク付けされます。



