AIが語るとき、誰の価値観を表すのか——大規模言語モデルにおける個人主義・集団主義バイアスの異文化監査

arXiv cs.AI / 2026/4/27

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 研究者は、3つの大手大規模言語モデル(Claude Sonnet 4.5、GPT-5.4、Gemini 2.5 Flash)を用いて、10の実在の個人的ジレンマを10カ国・7言語の利用者向けに提示し(n=840)、反応を系統的に比較した。
  • 3モデルはいずれも、より集団主義的な社会のユーザーに対しても西洋的な個人主義寄りの助言を行い、世界価値観調査(World Values Survey)第7波の予測から有意に外れた(平均ギャップ+0.76、1〜5の尺度)。
  • バイアスの大きさはナイジェリアで最大(+1.85)であり、インドでも顕著(+0.82)だった一方、調査データよりも日本のユーザーを集団志向として扱うという唯一の例外が見られた。
  • モデル間でバイアスの仕組みには違いがあり、Claudeはユーザーの母語でより集団主義寄りに寄るのに対し、Geminiはより個人主義寄りに傾き、GPT-5.4は主に申告された国の属性にのみ反応した。
  • 研究は、最先端AIが文化的価値観を一様化してしまう可能性を示し、再現のためのデータ、コード、スコアリング手順を公開している。

要旨: AIアシスタントに対して、キャリア、結婚、家族との対立について助言を求めたとき、出身地によって同じ答えを返すのでしょうか?私たちはこれを体系的に検証しました。すなわち、3つの主要なAIシステム(Claude Sonnet 4.5、GPT-5.4、Gemini 2.5 Flash)に対して、実生活の個人的なジレンマ10件を提示し、さらに10か国・5大陸のユーザ向けに7言語でそれらを構成しました(n=840の採点付き回答)。AIによる助言を、各国の人々が実際に何を信じているかを測定するWorld Values Survey(第7波)のデータと比較しました。
3つのAIシステムはいずれも、一貫して、家族・共同体・権威を重視する社会のユーザに対しても、西洋型の個人主義的な助言を与えました。それは、地域の価値観が予測するよりも有意に強いものでした(平均ギャップ +0.76、1〜5の尺度で;t=15.65, p<0.001)。そのギャップはナイジェリアで最大(+1.85)、次いでインドで大きい(+0.82)です。日本だけが例外で、AIシステムは日本のユーザを、調査が示すよりも集団志向だと扱っており、AIが時代遅れのステレオタイプを符号化していることが明らかになりました。ClaudeとGPT-5.4はバイアスの大きさがほぼ同一であり、Geminiはそれより低いものの、それでもなお有意です。モデルは仕組みが異なります。Claudeはユーザの母語において、より強く集団主義へシフトします。Geminiはより強く個人主義へシフトします。GPT-5.4は、明示された国のアイデンティティにのみ応答します。これらの結果は、最前線のAIにおいて価値観がシステム的に均質化されていることを示唆しています。データ、コード、採点パイプラインは公開されています。