Cognis:会話型AIエージェントのためのコンテキスト対応メモリ

arXiv cs.CL / 2026/4/23

📰 ニュースDeveloper Stack & InfrastructureTools & Practical UsageModels & Research

要点

  • 本論文では、会話型LLMエージェントに持続的なクロスセッション・メモリを与え、長期的なパーソナライズを可能にするための統合的なメモリアーキテクチャ「Lyzr Cognis」を提案しています。
  • Cognisはマルチステージの検索パイプラインを採用し、OpenSearchのBM25によるキーワード照合とMatryoshkaベースのベクトル類似検索を、Reciprocal Rank Fusionで統合して堅牢なメモリ検索を実現します。
  • コンテキストに応じた取り込み(ingestion)では抽出の前に既存メモリを取得し、メモリ履歴の完全性を維持しつつストアの整合性を保つためのインテリジェントなバージョン管理を可能にします。
  • 時間に敏感なクエリにはテンポラル・ブースティングを加え、最終的な検索結果の品質を高めるためにBGE-2のクロスエンコーダ・リランカーを用います。
  • LoCoMoとLongMemEvalの2つのベンチマークで8種類の回答生成モデルにより評価したところ、両方で最先端(state-of-the-art)の性能が示され、さらにオープンソース化されており会話型AIアプリで本番運用もされています。

要旨: LLMエージェントには永続的なメモリが欠けており、そのため会話はセッションごとにリセットされ、時間の経過に伴うパーソナライズが不可能になります。私たちは、この制限に対処するためのマルチステージの検索パイプラインにより、会話型AIエージェントのための統一メモリアーキテクチャであるLyzr Cognisを提案します。Cognisは、OpenSearchのBM25キーワードマッチングと、Matryoshkaによるベクトル類似検索というデュアルストアのバックエンドを組み合わせ、Reciprocal Rank Fusionによって統合します。文脈を考慮した取り込みパイプラインは、抽出の前に既存のメモリを取得し、ストアの整合性を保ちつつ、完全なメモリ履歴を保持するインテリジェントなバージョン追跡を可能にします。時間に敏感なクエリを強化するテンポラルブースティングに加え、BGE-2のクロスエンコーダによる再ランキングが最終結果の品質を洗練させます。私たちは、2つの独立したベンチマーク――LoCoMoおよびLongMemEval――について、8つの回答生成モデルすべてに対してCognisを評価し、両方で最先端の性能を示します。システムはオープンソースであり、会話型AIアプリケーションに対するプロダクション環境での提供(デプロイ)も行われています。