多言語LLMにおける競合する情報下での言語バイアス

arXiv cs.CL / 2026/4/9

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、多言語LLMが、異なる言語で与えられた競合する複数の事実を統合する際に、バイアスを示すかどうかを検討する。
  • 著者らは、「干し草の中の針」の手法を拡張し、5つの言語にわたって、さらに複数の多言語LLMのサイズ(GPT-5.2を含む)を用いて調査した。その結果、ほとんどのモデルは競合を大きく無視し、自信をもって1つの答えだけを生成することがわかった。
  • 研究者らは、モデル間で一貫した言語嗜好(language-preference)の影響を特定した。具体的には、ロシア語に対する一般的なバイアスがあり、(最長のコンテキスト長では)中国語に対するバイアスも見られる。
  • 観測された言語バイアスの傾向は、中国本土内外で学習されたモデルの双方で成り立つが、中国本土内で学習されたモデルのほうがやや強い。
  • 全体として、結果は、多言語のコンテキストや学習データが、内容そのものを超えて、競合解決における体系的な失敗モードを引き起こし得ることを示唆している。

要旨: 大規模言語モデル(LLM)は、質問に答える際に相互に矛盾する情報を統合する過程でバイアスを含んでいることが示されている。ここでは、そのようなバイアスが、各矛盾する情報に対してどの言語が用いられるかという点に関しても存在するのかどうかを問う。 この問いに答えるために、干し草の中の針(haystack)パラダイムにおける「矛盾する針」を多言語環境へ拡張し、異なるサイズの多言語LLM群について、5つの異なる言語で自然なニュース領域のデータを用いた包括的な一連の評価を行う。 その結果、GPT-5.2を含む、テストしたすべてのLLMが、大多数のケースで、矛盾を無視し、可能な答えのうちの1つだけを確信をもって断言することが分かった。さらに、モデル間で一貫したバイアスとして、言語が選好される傾向があり、概してロシア語に不利であり、また最も長いコンテキスト長では中国語に有利である。 これら2つのパターンは、 中国本土内で訓練されたモデルと、それ以外で訓練されたモデルの間でも整合的に見られるが、前者のほうがやや強い。