LLMが生成するコードにおける社会的バイアス:ベンチマークと低減手法
arXiv cs.AI / 2026/5/4
💬 オピニオンIdeas & Deep AnalysisTools & Practical UsageModels & Research
要点
- 本論文は、7つの人口統計的次元にまたがる343件の実世界のコーディング課題からなるSocialBias-Benchを提案し、単なる機能的正しさを超えてLLM生成コードの社会的バイアスを評価する枠組みを示しています。
- 4つの主要なLLMを検証した結果、最大60.58%に達するCode Bias Scoreなど、モデルがコード生成に不公平な前提を体系的に取り込むことが明らかになりました。
- Chain-of-Thought推論やフェアネスのペルソナ付与といった一般的なプロンプトレベルの低減策は、むしろバイアスを増幅し得ることが示されています。
- マルチエージェントの構造化プロセスは、初期役割が「コードが考慮すべき/すべきでない属性」を正しく切り分けられる場合に限ってバイアスを低減しますが、全エージェントに明示的なフェアネス指示を追加すると悪化します。
- これらの限界を踏まえ、著者らは既存のコード生成パイプラインに差し込めるFairness Monitor Agent(FMA)を提案し、実行可能なテストスイートを要せず、タスク記述を解析して違反を反復的に検出・修正することで、開発者エージェント単独比でバイアスを65.1%削減しつつ正解率を75.80%から83.97%へ改善し、他の手法を上回る結果を示しました。



