不確実性下における逐次意思決定の公平性

arXiv cs.LG / 2026/4/24

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、オンラインで逐次的な意思決定における公平性を扱い、不確実性や反実仮想の欠如が、過小評価されがちな集団に不釣り合いに不利益をもたらし得る点を強調している。
  • 不確実性を「モデル不確実性」「フィードバック不確実性」「予測不確実性」に整理する分類法を提案し、不確実性が集団間で偏っている状況でも公平性を評価するための共通言語を与える。
  • 反実仮想ロジックと強化学習によりモデル不確実性やフィードバック不確実性の一部を形式化し、観測されていない領域を無視すると排除が累積しアクセスが低下し得ることを示している。
  • アルゴリズム例とシミュレーションを通じて、不確実性を考慮した探索が分散を抑えつつ期待効用などの組織目標を維持しながら、公平性指標を改善できることを示している。
  • 選択的にフィードバックが観測される意思決定システムにおける公平性リスクを、診断・監査・ガバナンスするための枠組みとして位置づけられている。

Abstract

公正な機械学習(ML)手法は、アルゴリズムが社会的不正義を符号化または自動化してしまうリスクを特定し、軽減するのに役立ちます。アルゴリズムによるアプローチだけでは構造的不平等を解消できませんが、差別的バイアスを可視化し、トレードオフを明確化し、ガバナンスを可能にすることで、社会技術的な意思決定システムを支援できます。公正性は教師あり学習において十分に研究されていますが、多くの実際のMLアプリケーションはオンラインかつ逐次的であり、過去の意思決定が将来の意思決定に影響します。各意思決定は、観測されない反実仮想と有限のサンプルにより不確実性の下で行われ、過小代表の集団に対して深刻な結果をもたらします。さらに、歴史的な排除と選択的なフィードバックによって体系的に過小観測されてきたため、事態は悪化します。銀行は、却下されたローンが返済されていたかどうかを知ることができず、疎外された集団に関するデータが少ない可能性があります。 本論文は、逐次意思決定における不確実性の分類法――モデル、不確実性、フィードバック、不確実性、予測の不確実性――を導入し、不確実性が集団間で不均一に分布しているシステムを評価するための共通の語彙を提供します。反実仮想の論理と強化学習により、モデル不確実性とフィードバック不確実性を形式化し、観測されない領域を無視する政策が意思決定者(実現されない利得/損失)と当事者(排除の累積、アクセスの低下)に与える害を示します。アルゴリズムの例は、(期待効用などの)制度的な目的を維持しつつ、恵まれない集団の結果の分散を減らすことが可能であることを示します。バイアスが異なるデータをシミュレーションした実験では、不均等な不確実性と選択的なフィードバックが不平等を生み出す仕組み、そして不確実性を考慮した探索が公正性の指標をどのように変えるかを示します。この枠組みは、実務者が公正性リスクを診断し、監査し、統治するための手段を提供します。不確実性が偶発的なノイズではなく不公正を生み出している場合、それを考慮することは、公正で効果的な意思決定に不可欠です。