広告

Logit調整の先へ:長い尾を持つリランキングのための残差分解フレームワーク

arXiv cs.LG / 2026/4/3

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、長い尾(long-tailed)設定では固定の事後(post-hoc)logit調整は不十分であると主張する。リランキング対象クラスに対する最適な補正は、各クラスに対して一定のオフセットとして定まるのではなく、入力ごとに変化し得るためである。
  • top-k のベースモデル候補の上にベイズ最適なリランキングを定式化し、必要となる残差補正が「クラスごとの項(そのクラス内では一定)」と「入力および競合するラベルに依存する対(ペア)ごとの項」に分解できることを示す。
  • 著者らは、残差が純粋にクラスごとである場合に固定オフセットでベイズ最適な順序を復元できる条件、そしてそれができない条件(同一のラベル対が異なる文脈で矛盾する順序制約を導いてしまう場合)を導出する。
  • この分解に基づき、本論文は REPAIR を提案する。REPAIR は、収縮(shrinkage)により安定化したクラスごとの補正と、競合特徴に駆動される線形の対ごとの成分を組み合わせた、軽量な事後リランカーである。
  • 画像分類、種/シーン認識、希少疾患診断をカバーする5つのベンチマークにわたる実験により、対ごとの補正が性能を向上させる場面と、クラスごとの補正だけで十分な場面を示し、このフレームワークを裏付けている。

Abstract

多数の希少クラスに対して少数の頻出クラスが支配する「長い尾(long-tailed)分類」は、推論時にモデルが体系的に頻出クラスを優先してしまうため、依然として困難です。ログイット調整(logit adjustment)などの既存の事後(post-hoc)手法は、基盤モデルのロジットに対して固定のクラスごとのオフセットを加えることで、この問題に対処します。しかし、2つのクラスの相対順位を復元するために必要な補正は、入力全体で一定である必要はなく、固定オフセットではそのような変動に適応できません。私たちは、基盤モデルの上位k件の候補(top-k shortlist)に対するベイズ最適な再ランキング(reranking)によって、この問題を研究します。最適なスコアと基盤スコアの差、すなわち残差補正(residual correction)は、各クラス内では一定な「クラスごとの成分」と、入力および競合するラベルに依存する「ペアワイズ成分」に分解されます。残差が純粋にクラスごとの成分である場合、固定オフセットでベイズ最適な順序付けを復元できます。さらに、同じラベル対が文脈(context)ごとに両立しない順序付け制約を引き起こす場合には、固定オフセットではこの復元が達成できないことを示します。この分解により、ペアワイズ補正が性能を改善し得る場合と改善できない場合に関する検証可能な予測が導かれます。私たちは、REPAIR(Reranking via Pairwise residual correction)を開発します。これは、上位候補(shortlist)における競合特徴(competition features)によって駆動される線形のペアワイズ項と、収縮(shrinkage)で安定化したクラスごとの項を組み合わせた軽量な事後再ランカーです。画像分類、生物種認識、シーン認識、まれな疾患診断を含む5つのベンチマークに関する実験により、この分解が「ペアワイズ補正が役立つ場所」と「クラスごとの補正だけで十分な場所」を説明できることが確認されました。

広告