特徴間の制約がある場合における分類器の公平性

arXiv cs.AI / 2026/5/4

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • この論文は、保護属性(例:性別)に依存しないことを求める従来の分類器公平性の考え方が、特徴間に制約があるときに破綻しうることを検討し、その制約によって依存関係が見えなくなる問題を扱っています。
  • 著者らは、判断の「フェアな説明(fair explanation)」の存在を基準に公平性を定義する新しい方針を提案しており、素のインプリカント(prime-implicant)による判断理由のうち、保護特徴を含まないものを公平な説明とします(ここで素のインプリカントの定義には制約を反映します)。
  • 制約を無視すると、この説明に基づく定義のもとで「公平」と見なされるかどうかが大きく変わることがあり、たとえ保護特徴と非保護特徴の間に直接的な制約がなくても影響が生じる点を明らかにしています。
  • 分類器の公平性を、(1) 全ての判断にフェアな説明がある、(2) 少なくとも1つの判断にフェアな説明がある、(3) 保護特徴を変えても結果が変わらない、という3つの定義として整理し、それらの関係性と公平性検証の計算複雑性を分析しています。

概要: 機械学習において、分類器が下した決定の公平性の受け入れられた定義とは、それが性別などの保護された特徴に依存すべきではない、というものです。残念ながら、特徴間に制約が存在すると、そのような依存関係は制約によって見えにくくなることがあります。
この問題を避けるために、本研究では、決定が「公正な説明」を持つ場合に限り、公正であるとみなすことを提案します。公正な説明を、決定のための素(prime-implicant)となる理由であって、保護された特徴を含まないもの(ここで、素となる説明の定義において制約を考慮します)として定義します。驚くべきことに、制約を無視すると、保護された特徴と保護されていない特徴の間に制約が存在しない場合でさえ、決定の(この定義に従った)公平性が完全に変わり得ます。
分類器の公平性について考えられる定義は3つあります。すなわち、(1)すべての決定について公正な説明のみが存在する、(2)少なくとも1つの公正な説明が存在する、または(3)保護された特徴を変更しても結果が変わらない、です。私たちは、これらの異なる公平性の定義間の関係を特定し、分類器の公平性を検証する計算複雑性を研究します。