AI文章支援によるパーソナ(人物像)の歪みを測定し、緩和する

arXiv cs.CL / 2026/4/27

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • AI文章支援が、信念・性格・アイデンティティといった「パーソナ」をどのように歪めるかを評価し、多面的な読者認識の変化を検証した。
  • 3つの大規模実験(書き手2,939人、読者11,091人のブラインド評価)では、AI支援の政治意見文が、より強い意見・高い有能さ・より前向きな印象を持たれやすく、さらに「より特権的な」属性のプロフィールに寄ることが一貫して示された。
  • 歪みを認識して異議を唱えた書き手であってもAI支援文を選好し続ける傾向があり、有益な性質と望ましくない性質が絡み合っている可能性が示唆された。
  • 実験データ(段落10,008本、評価2,903,596件)に基づき報酬モデルを学習し、出力を書き手の立場により忠実に寄せることで、モデルレベルで歪みを緩和できたが、その代償としてユーザー受容性が低下した。
  • 現実的な人間の監督下でもパーソナ歪みが広範かつ持続的であることが示され、AI導入拡大に伴う信頼や民主的な熟議への影響が懸念される。