概要: 予測性能と公平性の間で最適なバランスをとることは、機械学習における基本的な課題であり続けています。
本研究では、モデルのアンサンブルを活用して公平性を意識した予測を促進する後処理フレームワークを提案します。
特定のモデル内部構造に依存せず機能するように設計されており、私たちのアプローチはさまざまな学習タスク、モデルアーキテクチャ、および公平性の定義に広く適用可能です。
分類、回帰、そして生存分析にまたがる広範な実験を通じて、このフレームワークは公正性を効果的に高めつつ、予測精度を維持する、あるいはわずかにしか影響を及ぼさないことを示しています。
公正性を意識した予測のためのモデルアンサンブルベースの後処理フレームワーク
arXiv cs.LG / 2026/3/20
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 本論文は、タスク横断の公正性を意識した予測を可能にするため、モデルアンサンブルに基づくポストプロセッシングフレームワークを提案します。
- このフレームワークはモデル内部に依存しないため、幅広いモデル、アーキテクチャ、及び公正性の定義とともに利用できます。
- 著者らは、分類、回帰、生存分析の実験を通じて本手法を検証し、予測精度への影響を最小限に抑えつつ公正性を改善できることを示しています。
- 基礎となるトレーニング手順を変更する必要がなく、実務における公正性志向の機械学習へ広く適用できることを示しています。




