LLMパーソナライズのためのレスポンス考慮型ユーザーメモリ選択

arXiv cs.AI / 2026/4/17

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、推論時にプロンプトへ入れるユーザーメモリの一部を選択することでLLMをパーソナライズする手法を扱い、主に意味類似度で選ぶ既存手法よりも改善することを目指しています。
  • Response-Utility optimization for Memory Selection(RUMS)として、メモリとモデル出力の間の相互情報量を最大化することで応答の不確実性を減らすメモリ選択を提案しています。
  • 情報理論に基づくこの目的関数により、最先端の選択手法よりも人間の選択により近い形でメモリが選ばれると著者らは述べています。
  • 実験では、RUMSが既存手法より良い応答品質を達成しつつ、計算コストを最大95%削減できることが報告されています。
  • 総じて本研究は、メモリが応答分布に与える影響を直接狙って、より原理的なユーザーメモリ選択の枠組みを提供します。