AdaptFuse: Training-Free Sequential Preference Learning via Externalized Bayesian Inference

arXiv cs.CL / 4/7/2026

📰 NewsSignals & Early TrendsIdeas & Deep AnalysisModels & Research

Key Points

  • AdaptFuseは、LLMが複数ラウンドの対話でベイズ的に信念更新できない問題に対し、確率計算をLLMの外部に切り出す「学習不要(training-free)」な推論フレームワークを提案しています。
  • 具体的には、象徴的モジュールが離散仮説集合上のベイズ事後分布を保持し、凍結したLLMがマルチサンプルDirichlet集約で意味的推論を提供した上で、予測信頼度に応じて両者をエントロピー適応的に融合します。
  • エビデンスが蓄積するほどLLMへの依存度を下げ、象徴的事後分布への依存度を高める設計により、推論時アルゴリズムでベイズ整合性を実現する狙いです。
  • 飛行機・ホテル・Web購買の3ドメインで、Gemma 2 9B / Llama 3 8B / Qwen 2.5 7Bに対して、プロンプト基準とファインチューニングを伴うベイズ教育モデルを一貫して上回り、精度が相互作用ラウンドに対して単調に向上したと報告されています。
  • さらに、機微なユーザー対話データを保存・学習せずに個別化推薦を改善できる点と、コード・資料のオープンソース化が示されています。

Abstract

Large language models struggle to accumulate evidence across multiple rounds of user interaction, failing to update their beliefs in a manner consistent with Bayesian inference. Existing solutions require fine-tuning on sensitive user interaction data, limiting their applicability in privacy-conscious settings. We propose AdaptFuse, a training-free framework that externalizes probabilistic computation entirely from the LLM: a symbolic module maintains a Bayesian posterior over a discrete hypothesis set, while a frozen LLM contributes semantic reasoning via multi-sample Dirichlet aggregation. The two signals are combined through entropy-adaptive fusion, which automatically weights each source by its predictive confidence, shifting reliance from the LLM to the symbolic posterior as evidence accumulates. We evaluate across three domains: flight recommendation, hotel recommendation, and web shopping; on Gemma 2 9B, Llama 3 8B, and Qwen 2.5 7B. AdaptFuse consistently outperforms both prompting baselines and fine-tuned Bayesian Teaching models on all tasks, with accuracy improving monotonically over interaction rounds. These results demonstrate that principled inference-time algorithms can substitute for fine-tuning in personalized recommendation, without storing or training on sensitive user data. All the code and materials will be open-sourced.