差分凸(DC)制約によるパーセンタイル区間上の予測スコアの公平性の強制

arXiv stat.ML / 2026/4/7

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、機械学習における一般的な公平性緩和と性能のトレードオフに対して、「部分的に公平(partially fair)」なモデルを提案する。これは、すべてのスコア範囲にわたって公平性を強制するのではなく、選択したパーセンタイル区間に対してのみ公平性を強制する。
  • 著者らは、特定のパーセンタイル・ウィンドウ内で公平性を定量化する統計的指標を定義する。これは、高いまたは低いパーセンタイル群に関する利害関係者の懸念が集中している可能性を反映している。
  • 著者らは、学習課題を差分凸(difference-of-convex: DC)制約を用いた制約付き最適化として捉える、インプロセス(in-processing)型の学習アプローチを導入する。
  • その結果得られる問題を、不正確な差分凸アルゴリズム(inexact difference-of-convex algorithm: IDCA)で解くことを提案し、ほぼKKT点を見つけるための計算量解析を示す。
  • 実データセットでの実験により、この方法は、パーセンタイル区間が対象とされている箇所に対して公平性の保証を提供しつつ、高い予測性能を維持できることが示されている。

Abstract

機械学習における公平性は、重要な懸念事項となっています。既存の手法はしばしば、予測モデルによって生成される全てのスコア範囲にわたって完全な公平性を達成することに焦点を当て、高パーセンタイルおよび低パーセンタイルの母集団の双方における公平性を確保します。しかし、この厳格な要件は予測性能を損なう可能性があり、また関係者が抱える実務上の公平性に関する懸念と整合しないこともあります。本研究では、特定の関心あるパーセンタイル区間内にのみ公平性を課し、他の領域では柔軟性を維持することで、部分的に公平な機械学習モデルを構築するための新しい枠組みを提案します。与えられたパーセンタイル区間における部分的公平性を評価するための統計的指標を導入します。部分的公平性を実現するために、モデル学習の問題を差の凸(difference-of-convex)制約を伴う制約付き最適化として定式化し、これを不正確差の凸アルゴリズム(IDCA)によって解くための、インプロセス手法を提案します。ほぼKKT点を見つけるためのIDCAの計算量解析を提示します。実世界のデータセットに対する数値実験により、本枠組みが、高い予測性能を達成しつつ、本当に重要なところで部分的公平性を適切に強制できることを示します。

差分凸(DC)制約によるパーセンタイル区間上の予測スコアの公平性の強制 | AI Navigate