基本に立ち返る:検索と生成だけで会話エージェントに記憶を取り戻させる
arXiv cs.AI / 2026/4/15
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、会話の記憶劣化は複雑なメモリアーキテクチャよりも、「信号スパース性効果」によって、対話が長くなるほど関連情報を集約しにくくなることが主因だと主張している。
- 失敗の要因として2つを特定する――「決定的証拠のスパース性」(関連する信号が孤立してしまう)と「二重レベルの冗長性」(セッション間干渉と、セッション内のフィラーが非情報的な内容を付加する)。
- これに対処するため、著者らは検索と生成のみを用いる最小主義的な枠組みを提案する。ターン単位の証拠を最大アクティベーションで捉える「Turn Isolation Retrieval (TIR)」を用いる。
- さらに「Query-Driven Pruning (QDP)」を導入し、冗長なセッションや会話上のフィラーを除去することで、生成のためのコンパクトで高密度な証拠集合を作る。
- 複数のベンチマークにわたる実験では、提案手法が強力なベースラインを上回り、トークン効率とレイテンシ効率も改善することが示され、会話メモリの新しい最小主義的ベースラインが提示される。
