誰が「公平さ」を定義するのか?生成モデルにおける人口属性の表現を目的としたターゲットベースのプロンプト手法
arXiv cs.AI / 2026/4/25
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 文章から画像を生成するモデルは、職業別に「doctor」「CEO」などでは肌の明るい出力が増える一方、「janitor」などでは多様性が見られるといった、社会的ステレオタイプや人口属性の偏りを再現しがちだと報告されている。
- 既存のバイアス軽減手法は再学習や厳選したデータセットを必要とすることが多く、多くのユーザーが利用しにくい。
- 本論文では、基盤となる生成モデルを変更せずに、推論時にプロンプトへ介入する軽量なフレームワークを提案している。
- 「公平さ」を単一の定義として押し付けるのではなく、ユーザーが複数の公平性仕様(肌色の均一分布など)を選べるようにし、さらにLLMを用いた出典付きかつ信頼度推定を伴う複雑な定義も扱う。
- 30の職業と6つの非職業文脈を含む36のプロンプトで検証した結果、宣言したターゲット方向に肌色の分布が移行し、肌色空間で直接ターゲットを定義した場合には目標からのズレが減少した。
