置き去りにされている: 大規模言語モデルにおける低リソース言語のための架け橋としてのクロスリンガル・トランスファー

arXiv cs.CL / 2026/3/24

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文では、英語・カザフ語・モンゴル語に対して8つの大規模言語モデルを、50個の手作り質問を用いてベンチマークし、精度・流暢さ・完全性の観点で2,000件の応答を評価する。
  • 結果から、英語に対して常に13.8〜16.7パーセントポイントの性能差が見られ、モデルは低リソース言語においてしばしば表面レベルの流暢さは保つものの、実際には大幅に正確性を欠く出力を生成することが示される。
  • クロスリンガル・トランスファーのプロンプト(英語で推論し、その後英語から翻訳して戻す)では、バイリンガル構成に対して選択的な改善が得られる(+2.2pp〜+4.3pp)が、英語優位のモデルには効果がない。
  • 本研究は、現在のLLMが低リソース言語のコミュニティを体系的に十分に支えていないこと、そして対策の有効性は単一の普遍的なプロンプト戦略ではなくモデルのアーキテクチャに依存することを結論づける。

置き去りにされている: 大規模言語モデルにおける低リソース言語のための架け橋としてのクロスリンガル・トランスファー | AI Navigate