Merge and Conquer:ターゲット言語の重みを追加して多言語モデルに指示を学習させる
arXiv cs.CL / 2026/3/31
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、英語中心のモデルで通常は十分に扱われていない低資源言語において、LLMの指示追従性と言語性能を向上させる方法を扱う。
- 新たに言語固有の指示データセットを用意したり、繰り返し微調整を行ったりする必要を回避しつつ、指示チューニング済みLLMと言語固有のベースモデルを組み合わせることで、モデルのマージによって言語知識を転移することを提案する。
- Basque(バスク語)、Catalan(カタルーニャ語)、Galician(ガリシア語)、Spanish(スペイン語)を対象に、2つのモデル系統で実験を行った結果、マージによって新たに対象とした言語で効果的な指示追従が得られることを示す。
- さらに、複数の言語固有モデルをマージすることで多言語能力を獲得できることも著者らが示しており、言語ごとの強みを組み合わせるためのスケーラブルな手法が示唆される。
- 総じて本研究は、低資源言語への適応において、競争力のある結果を維持しつつ、モデルマージが継続的事前学習に対する計算効率の高い代替手段になり得ると結論づけている。




