Logit調整の先へ:長い尾を持つリランキングのための残差分解フレームワーク
arXiv cs.LG / 2026/4/3
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、長い尾(long-tailed)設定では固定の事後(post-hoc)logit調整は不十分であると主張する。リランキング対象クラスに対する最適な補正は、各クラスに対して一定のオフセットとして定まるのではなく、入力ごとに変化し得るためである。
- top-k のベースモデル候補の上にベイズ最適なリランキングを定式化し、必要となる残差補正が「クラスごとの項(そのクラス内では一定)」と「入力および競合するラベルに依存する対(ペア)ごとの項」に分解できることを示す。
- 著者らは、残差が純粋にクラスごとである場合に固定オフセットでベイズ最適な順序を復元できる条件、そしてそれができない条件(同一のラベル対が異なる文脈で矛盾する順序制約を導いてしまう場合)を導出する。
- この分解に基づき、本論文は REPAIR を提案する。REPAIR は、収縮(shrinkage)により安定化したクラスごとの補正と、競合特徴に駆動される線形の対ごとの成分を組み合わせた、軽量な事後リランカーである。
- 画像分類、種/シーン認識、希少疾患診断をカバーする5つのベンチマークにわたる実験により、対ごとの補正が性能を向上させる場面と、クラスごとの補正だけで十分な場面を示し、このフレームワークを裏付けている。




