テキストから画像へのモデルにおける公平性の実運用:バイアス、フェアネス監査、緩和戦略のサーベイ

arXiv cs.CV / 2026/4/21

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • テキストから画像(T2I)生成モデルは幅広く利用されている一方で、社会的ステレオタイプを反映した出力をしばしば示すとして批判されている。
  • 本論文は、「バイアス」や「フェアネス」といった用語の定義が不統一で、実運用上の落とし込みが曖昧である点を指摘している。
  • T2Iの公平性に関する研究を体系的に調査し、バイアスタイプとフェアネスの概念を整理した分類法を提示するとともに、「目標となる公平性」と「意思決定可能な基準としての公平性」のギャップを批判的に評価している。
  • ミティゲーション戦略として、プロンプトエンジニアリングから拡散プロセスの操作まで幅広い手法を俯瞰している。
  • 説明的な評価指標だけに依存せず、目標に基づく厳密なテストによって公平性を実運用するための新しい枠組みを提案し、生成AI開発の説明責任を高めることを目指している。

Abstract

テキストから画像への生成(T2I)モデルはさまざまな産業で広く採用されている一方で、社会的ステレオタイプを頻繁に示すことで批判されています。これらのバイアスを評価し軽減するための研究が増えてきているものの、現状の分野では概念的な曖昧さが問題となっており、たとえば「bias(バイアス)」や「fairness(公平性)」のような用語が必ずしも明確に区別されていないことや、操作可能な定義が欠けていることが少なくありません。本論文は、T2I における公平性に関する文献を体系的に包括的にレビューし、既存の取り組みをバイアスタイプおよび公平性の概念のタクソノミー(分類体系)に整理します。さらに、「target fairness(目標としての公平性)」(T2I 出力における規範的理想)と「threshold fairness(閾値としての公平性)」(行動可能な意思決定ルールを伴う規範的基準)との間に存在するギャップを批判的に評価します。加えて、プロンプトエンジニアリングから拡散プロセスの操作まで、さまざまな軽減戦略の全体像を調査します。最後に、記述的な指標を超えて、厳密で目標に基づくテストへと移行する、公平性を操作可能な形で実現するための新しい枠組みを提案することで締めくくります。これにより、より説明責任のある生成型AIの開発に向けたアプローチを提供します。