高次元一般化線形モデルにおける公平性制約

arXiv stat.ML / 2026/4/21

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • この論文は、機械学習モデルが過去データからバイアスを継承しうることを指摘し、公平性と説明責任に関する課題を浮き彫りにしています。
  • 既存の公平性介入がしばしば性別や人種といったセンシティブ属性へのアクセスを前提とする一方、プライバシーや法規制により利用が制限される点を問題にしています。
  • 著者らは、補助的特徴からセンシティブ属性を推定し、そのうえで訓練時に公平性制約をモデルに組み込む枠組みを提案します。
  • 実験では、この方法がバイアスを軽減しつつ、予測精度をできるだけ維持できることが示されています。
  • 全体として、本研究はアルゴリズムによる意思決定の公正性を高めることを目指した、実用的な公平性重視の学習手法を提供しています。