AutoMLにおける公平性を意識した基準の影響の探究
arXiv cs.LG / 2026/4/14
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 高いインパクトを持つ意思決定に用いられるAutoMLシステムは、偏ったデータを用いて主に予測性能を最適化する場合、差別を増幅し得る。
- 本論文では、データの選択・変換からモデル選択・チューニングに至るまでを対象とするAutoMLパイプラインの最適化ステップに、公平性を意識した基準を直接組み込むことを検討する。
- 公平性の指標は「公平」のさまざまな概念を表し得るため、著者らは最適化の際に補完的な複数の公平性指標を統合し、多面的な公平性の側面をより適切に捉えることを目指す。
- 結果として、予測性能のみを目的とするベースラインに対して測定可能なトレードオフが示される。すなわち、予測力は9.4%低下する一方で、平均的な公平性は14.5%改善し、データ使用量は35.7%減少する。
- 公平性を意識した最適化は、最終的なパイプラインを、完全ではあるがより単純なものにする傾向もあり、公平性の改善には必ずしもモデルの複雑性の増大が必要ではないことを示唆している。




