バベルの塔で迷子に:LLMにおける偶発的な多言語性がもたらす悪影響

arXiv cs.CL / 2026/5/5

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、現代の多言語NLPが「偶発的な多言語性(incidental multilingualism)」という脆くて誤解を招きやすい前提に収束しており、LLMが多言語に見えるのは多言語・多文化の能力を中核目標として設計していないためだと主張している。
  • その結果として、言語ごとに不均衡で脆く、かつ不透明な挙動が体系的に生じ、複数の言語状況で推論・計画・行動を要する実世界のエージェント的な展開において深刻な帰結につながるとしている。
  • 著者らは、(1)モデルが自己申告する対応言語と(2)多言語プロンプト下で実際に応答できる言語を比較する、2つの実用的な問いに焦点を当てた実証研究を行っている。
  • さらに、単純な言語変更攻撃によってこれらの失敗が表面化し、LLMベースのシステムに潜む「言語」への隠れた前提を暴露できることを示している。
  • それに対し、研究課題として「設計による多言語性(multilingualism by design)」への転換を求めており、公平な多言語性能・文化的な基盤づけ・クロスリンガルな行動理解をモデルパイプラインの第一級目標として扱うべきだとしている。

Abstract

本論文は、現代の多言語NLPが、偶発的な多言語性に関する脆弱で誤解を招くパラダイムへと収束していると論じる。今日のLLMは、多言語または多文化的な能力を中核となる設計目標として扱ってきたからではなく、巨大で不均衡なウェブコーパスで学習されているために、多言語であるように見える。我々は、このパラダイムが言語間で不均等で脆く、また不透明な挙動を体系的に生み出し、モデルが複数の言語的文脈にまたがって推論し、計画し、行動しなければならない現実世界およびエージェント型の導入において深刻な結果をもたらすと主張する。本論文では、2つの実用的な問いに対する焦点を絞った実証研究を報告する。すなわち、モデルが多言語プロンプトにおいて「サポートされている」と自己申告する言語はどれか、そして実際にはどの言語に応答するのか、である。さらに、単純な言語変更攻撃でさえこれらの失敗をどのように顕在化させ、LLMベースのシステムに隠された「言語」に関する前提をどのように露出させ得るかも示す。これに対処するため、我々は「設計による多言語性」への転換を求める。すなわち、すべてのモデル・パイプラインのあらゆる側面において、公平な多言語性能、文化的な基盤づけ、そして言語横断的な行動理解を第一級の目標として扱う研究アジェンダである。