英語だけでは不十分:LLMのポストトレーニングにおける多言語性の役割を体系的に探る
arXiv cs.AI / 2026/4/16
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本研究は、多くのLLMポストトレーニングのパイプラインがいまだ英語中心であることを指摘しており、その結果、多言語展開が広く行われているにもかかわらず言語間で性能が不均一になり得ると論じている。
- 数学推論とAPI呼び出しタスクを対象に、翻訳された多言語混合データを用いて(最大8Bパラメータまで)220件の制御された教師あり微調整実験を行ったところ、ポストトレーニングで言語カバレッジを拡大することは概して有益であることが分かった。
- 低リソース言語は追加カバレッジから最も大きな恩恵を受ける一方、高リソース言語は、より多くの言語を含めても低下するというよりは頭打ち(プラトー)になりやすい。
- 最小限の多言語性でも(非英語の1言語を追加するだけで)英語の性能や言語横断の汎化が改善し得るため、英語のみでのポストトレーニングは大部分で最適とは言えない。
- 十分に高い言語多様性がある場合、少ない言語多様性で言語を直接含めることによる効果と同等、あるいはそれを上回る水準で、ゼロショットの言語横断転移が達成され得る。ただし類型論的に遠い低リソース言語では改善が限定的である。




