AdaptFuse: Training-Free Sequential Preference Learning via Externalized Bayesian Inference
arXiv cs.CL / 4/7/2026
📰 NewsSignals & Early TrendsIdeas & Deep AnalysisModels & Research
Key Points
- AdaptFuseは、LLMが複数ラウンドの対話でベイズ的に信念更新できない問題に対し、確率計算をLLMの外部に切り出す「学習不要(training-free)」な推論フレームワークを提案しています。
- 具体的には、象徴的モジュールが離散仮説集合上のベイズ事後分布を保持し、凍結したLLMがマルチサンプルDirichlet集約で意味的推論を提供した上で、予測信頼度に応じて両者をエントロピー適応的に融合します。
- エビデンスが蓄積するほどLLMへの依存度を下げ、象徴的事後分布への依存度を高める設計により、推論時アルゴリズムでベイズ整合性を実現する狙いです。
- 飛行機・ホテル・Web購買の3ドメインで、Gemma 2 9B / Llama 3 8B / Qwen 2.5 7Bに対して、プロンプト基準とファインチューニングを伴うベイズ教育モデルを一貫して上回り、精度が相互作用ラウンドに対して単調に向上したと報告されています。
- さらに、機微なユーザー対話データを保存・学習せずに個別化推薦を改善できる点と、コード・資料のオープンソース化が示されています。
💡 Insights using this article
This article is featured in our daily AI news digest — key takeaways and action items at a glance.
Related Articles

Black Hat Asia
AI Business
Research with ChatGPT
Dev.to
Silicon Valley is quietly running on Chinese open source models and almost nobody is talking about it
Reddit r/LocalLLaMA

Why AI Product Quality Is Now an Evaluation Pipeline Problem, Not a Model Problem
Dev.to

The 10 Best AI Tools for SEO and Digital Marketing in 2026
Dev.to