要旨: 説明可能性と公平性は、主に別々に検討されてきましたが、近年の例外として、不公平さの原因を説明しようとする試みがあります。本論文では、標準的な集団公平性の基準のもとで、シャプレイ値を用いて不公平さを定義し、同時に説明できることを示します。これにより、不公平さに関する推定と推論、ならびに不公平さに寄与する特徴を導出するための、統合的な枠組みが提供されます。私たちの枠組みは、シャプレイ値から効率的対称線形(Efficient-Symmetric-Linear, ESL)値の族へ拡張することもでき、このうちのいくつかは、より頑健な公平性の定義と、より短い計算時間を提供します。図示のために、UCI Machine Learning Repository の「Census Income」データセットで実験を行います。提案手法は、従来のブートストラップ検定より短い計算時間で、「Age(年齢)」、「Number of hours(労働時間数)」、「Marital status(婚姻状態)」が性別に関する不公平さを生み出すことを示します。
シャプレイがロールズに出会う:不公平を測定し説明するための統合フレームワーク
arXiv cs.LG / 2026/3/30
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、公平性と説明可能性を別々の話題として扱うのではなく、不公平性を定義することと説明することの両方にシャプレイ値を用いる統合フレームワークを提案する。
- このアプローチは、標準的な集団公正(group fairness)基準に整合しており、推論時にどの入力特徴が不公平に寄与しているかを推定できる。
- 著者らは、シャプレイ値から派生して、効率的対称線形(Efficient-Symmetric-Linear: ESL)値のファミリーへと方法を拡張し、不公平性の定義の頑健性を高め、計算時間を削減する。
- UCI Census Income データセットを用いた例では、「Age(年齢)」「Number of hours(労働時間数)」「Marital status(婚姻状況)」などの特徴が、性別に関する不公平の要因として特定される。
- 本手法は、不公平性に対する特徴の寄与を検出するための従来のブートストラップ検定よりも高速な実行時間を報告している。



