広告

保護属性情報を使用せずに不偏なモデル予測を行う

arXiv cs.CV / 2026/4/1

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、深層学習における根強いバイアスに取り組み、多くの既存の公平性手法がしばしば実世界では利用できない保護属性データを必要とする点を指摘している。
  • 非保護属性に基づく脱バイアス化(NPAD)アルゴリズムを提案し、非保護属性から得られる補助情報のみを用いてバイアス緩和を行う。
  • 公平性を意識した2つの目的関数として、属性クラスタ損失による脱バイアス化(DACL)とフィルタ冗長性損失(FRL)を提案し、サブグループ間の格差を低減するようにモデルを学習させる。
  • 顔の属性予測に関する実験をLFWAとCelebAで行い、性別および年齢のサブグループにおいて顕著なバイアス低減が報告されている。

Abstract

バイアスの問題は、モデルが異なる人口統計的サブグループ間で不均一な性能を提供し続ける限り、深層学習コミュニティにおいてなお持続しています。したがって、深層モデルの公平性を改善するために、いくつかのアルゴリズムが提案されています。しかし、これらの大半のアルゴリズムは、バイアス軽減のために保護属性(protected attribute)の情報を利用しており、現実のシナリオでの適用を大きく制限しています。こうした懸念に対処するため、保護属性の情報を必要としない、バイアス軽減のための新しいアルゴリズム \textbf{Non-Protected Attribute-based Debiasing (NPAD)}(非保護属性ベースのデバイアシング、NPAD) を提案しました。提案するNPADアルゴリズムは、非保護属性によって提供される補助情報を用いて、バイアス軽減のためにモデルを最適化します。さらに、公平性の目標を達成するために、 \textbf{Debiasing via Attribute Cluster Loss (DACL)}(属性クラスタ損失によるデバイアシング、DACL) と \textbf{Filter Redundancy Loss (FRL)}(フィルタ冗長性損失、FRL) の2種類の異なる損失関数が提案されています。顔の属性予測のために、LFWAおよびCelebAデータセットで複数の実験を行い、性別および年齢の各サブグループにわたってバイアスが顕著に低減されることを観察しました。

広告