Learning from Emptiness: De-biasing Listwise Rerankers with Content-Agnostic Probability Calibration

arXiv cs.AI / 4/14/2026

💬 OpinionIdeas & Deep AnalysisModels & Research

Key Points

  • 提案手法CapCalは、生成的なリストワイズ・リランカーに内在する「位置バイアス」を推論の追加計算なしに補正する、学習不要(training-free)の枠組みです。
  • 位置バイアスをコンテンツ非依存のプレースホルダで推定し、エントロピー適応型のコントラスティブ機構で出力ロジットを修正することで、ランキング判断から順序依存性を機械的に切り離します。
  • 10のベンチマーク評価で、CapCalはトレーニング不要手法の中で優れた性能を示し、シングルパスの効率を維持しつつ改善を実現したと報告されています。
  • とくに軽量モデル(例: 0.6B)でも絶対NDCGが10点超改善し、並べ替え(permutation)集約やデータ拡張ベースラインよりも良い結果となった点が強調されています。

Abstract

Generative listwise reranking leverages global context for superior retrieval but is plagued by intrinsic position bias, where models exhibit structural sensitivity to input order independent of relevance. Existing mitigations present a dilemma: inference-time aggregation incurs prohibitive latency, while training-based methods often fail to eradicate ingrained priors, particularly in compact models. To resolve this dilemma, we propose CapCal (Content-Agnostic Probability Calibration), a training-free framework that mechanically decouples positional bias from ranking decisions. By estimating the bias distribution via content-free placeholders, CapCal rectifies output logits through an entropy-adaptive contrastive mechanism. Evaluations across 10 benchmarks confirm that CapCal achieves superior performance among training-free methods while preserving single-pass efficiency. Notably, it unlocks the latent potential of lightweight models (e.g., 0.6B), delivering absolute NDCG gains exceeding 10 points and outperforming both permutation-based aggregation and data-augmentation baselines.