不均衡な設定における最適化されたディファー(延期)

arXiv cs.LG / 2026/5/1

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、「学習して延期(learning to defer)」を扱い、不確実または複雑な入力を専門家(エキスパート)へ振り分けることで、計算コストを抑えつつ精度を高める手法を検討しています。
  • 2段階の学習における重要な課題として、専門家の不均衡(expert imbalance)問題を指摘し、延期アルゴリズムが多数派の専門家を過度に選好してしまい得る点が性能を損ねると述べています。
  • 著者らは延期の損失最適化を、入力—専門家ドメイン上のコスト感応型学習として再定式化し、この設定に合わせた新しいマージンベースの損失関数と保証を導出します。
  • 不均衡な専門家設定に特化した原理的なアルゴリズムとして、MILD(Margin-based Imbalanced Learning to Defer)を提案しています。
  • 画像分類と実世界のLLMルーティングの両方で実験を行い、既存ベースラインに対して明確な改善が得られることを示しています。