Learning from Emptiness: De-biasing Listwise Rerankers with Content-Agnostic Probability Calibration
arXiv cs.AI / 4/14/2026
💬 OpinionIdeas & Deep AnalysisModels & Research
Key Points
- 提案手法CapCalは、生成的なリストワイズ・リランカーに内在する「位置バイアス」を推論の追加計算なしに補正する、学習不要(training-free)の枠組みです。
- 位置バイアスをコンテンツ非依存のプレースホルダで推定し、エントロピー適応型のコントラスティブ機構で出力ロジットを修正することで、ランキング判断から順序依存性を機械的に切り離します。
- 10のベンチマーク評価で、CapCalはトレーニング不要手法の中で優れた性能を示し、シングルパスの効率を維持しつつ改善を実現したと報告されています。
- とくに軽量モデル(例: 0.6B)でも絶対NDCGが10点超改善し、並べ替え(permutation)集約やデータ拡張ベースラインよりも良い結果となった点が強調されています。
Related Articles

Don't forget, there is more than forgetting: new metrics for Continual Learning
Dev.to

Microsoft MAI-Image-2-Efficient Review 2026: The AI Image Model Built for Production Scale
Dev.to
Bit of a strange question?
Reddit r/artificial

One URL for Your AI Agent: HTML, JSON, Markdown, and an A2A Card
Dev.to

One URL for Your AI Agent: HTML, JSON, Markdown, and an A2A Card
Dev.to