要旨: プライバシーとアルゴリズムの公正性は、現代の機械学習において2つの中核的な課題となっている。各々は別々に急速に成長する研究分野として現れてきたものの、それらの共同の効果は比較的十分に調べられていない。本論文では、データが複数のサーバに分散されている連合学習の設定において、分類に対する差分プライバシーと公正性の共同的な影響を体系的に研究する。連合差分プライバシーの下で、人口統計上の格差に制約を課した分類を対象として、我々は2段階のアルゴリズム、すなわちFDP-Fairを提案する。さらに、サーバが1台のみの特別な場合には、計算負荷の低い代替手段として、単純でありながら強力なアルゴリズムであるCDP-Fairも提案する。穏やかな構造的仮定の下で、プライバシー、公正性、過剰リスクの制御に関する理論的保証が確立される。特に、私的な公正性を考慮した過剰リスクの原因を、a) 分類の固有コスト、b) 私的分類のコスト、c) 非私的な公正性のコスト、d) 私的な公正性のコストに切り分ける。理論的な知見は、合成データセットおよび実データセットの双方に対する大規模な数値実験によって補完され、設計したアルゴリズムの実用性が示される。
差分プライバシー下における連合学習の公平性を意識した分類
arXiv stat.ML / 2026/3/26
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 本論文は、人口集団間の不公平(demographic-disparity)に制約を設けた分類において、差分プライバシーとアルゴリズムの公平性が連合学習でどのように相互作用するかを研究する。
- 2段階の連合学習アルゴリズムであるFDP-Fairを提案し、さらに計算負荷の軽い単一サーバ版のCDP-Fairを提案する。
- 緩やかな構造的仮定のもとで、プライバシー・公平性・過剰リスク(excess risk)に関する上界を含む理論的保証を著者らが証明する。
- 分析では、「プライベートな公平性を意識した過剰リスク」を4つの寄与に分解する:固有の分類コスト、プライベートな分類コスト、非プライベートな公平性コスト、プライベートな公平性コスト。
- 合成データセットおよび実データセットでの実験により、提案手法の実用性が支持され、理論的挙動が検証される。