要旨: 日常生活における大規模言語モデル(LLM)の存在感が高まるにつれて、LLMがその作り手と同様に多くの性別に関するバイアスを示しているのではないか、という懸念が強まっている。採用判断の文脈において、本研究では、LLMが社会的なバイアスをどの程度継続させるのかを定量化し、バイアス緩和の技術としてプロンプトエンジニアリングを検討する。得られた結果は、特定の履歴書に対して、LLMは女性候補者を採用する可能性がより高く、またより有資格だと認識する一方で、男性候補者に比べて低い報酬を推奨することを示唆している。
大規模言語モデルにおけるジェンダーバイアスの定量化:ChatGPTが採用担当者になるとき
arXiv cs.AI / 2026/4/2
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- arXivの論文は、大規模言語モデルが採用評価の文脈でジェンダーに関するバイアスを再現するかどうかを検討し、推薦の違いや知覚された資格の差に焦点を当てている。
- 同一の履歴書入力に対して、LLMは女性候補者を採用することをより強く推奨し、より有資格であると評価する可能性が高いと報告されている。
- 女性候補者の採用されやすさや資格判断が高いにもかかわらず、モデルは男性と比べて女性に対して低い報酬を勧めることが依然として見出されている。
- 研究では、バイアス緩和の手段としてプロンプトエンジニアリングを取り上げ、採用シナリオにおいてプロンプトが偏った出力をどれだけ低減または変化させられるかを評価している。




