差分凸(DC)制約によるパーセンタイル区間上の予測スコアの公平性の強制
arXiv stat.ML / 2026/4/7
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、機械学習における一般的な公平性緩和と性能のトレードオフに対して、「部分的に公平(partially fair)」なモデルを提案する。これは、すべてのスコア範囲にわたって公平性を強制するのではなく、選択したパーセンタイル区間に対してのみ公平性を強制する。
- 著者らは、特定のパーセンタイル・ウィンドウ内で公平性を定量化する統計的指標を定義する。これは、高いまたは低いパーセンタイル群に関する利害関係者の懸念が集中している可能性を反映している。
- 著者らは、学習課題を差分凸(difference-of-convex: DC)制約を用いた制約付き最適化として捉える、インプロセス(in-processing)型の学習アプローチを導入する。
- その結果得られる問題を、不正確な差分凸アルゴリズム(inexact difference-of-convex algorithm: IDCA)で解くことを提案し、ほぼKKT点を見つけるための計算量解析を示す。
- 実データセットでの実験により、この方法は、パーセンタイル区間が対象とされている箇所に対して公平性の保証を提供しつつ、高い予測性能を維持できることが示されている。




