AI Navigate

言語的に関連する言語は、低リソース設定におけるLLM翻訳を導くことができるか?

arXiv cs.CL / 2026/3/18

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本研究では、言語的に関連するピボット言語と少数ショットの文脈内デモンストレーションを用いて、パラメータを更新せずにその場でのLLM翻訳を導くことを検証する。
  • ピボットベースのプロンプティングは、特定の構成で翻訳を改善できる可能性がある。特にターゲット言語がモデルの語彙に十分表現されていない場合に顕著である。
  • 効果は一般に控えめで、少数ショットの例の構成に高度に敏感である。近縁な言語や、モデル内でよりよく表現されている変種には、利益が低下するか一貫性を欠くことが多い。
  • 著者らは、推論時のプロンプティングとピボットベースの例が、低資源翻訳設定においてファインチューニングの現実的で軽量な代替手段となる時期について、経験的な指針を提供している。

要約: 大規模言語モデル(LLMs)は、多くの下流タスクにおいて高い性能を達成していますが、極端にリソースが乏しい機械翻訳における有効性は依然として限られています。標準的な適応技術は通常、大規模な並列データや大量のファインチューニングに依存しますが、それらは十分に表現されていない言語の長尾には実現困難です。 本研究では、データが不足した設定において、言語的に類似したピボット言語と少数ショットのデモンストレーションが、LLMs のその場での適応に対して有用な指針を与える程度はどれくらいかを検討します。 私たちは、パラメータの更新を一切行わず、言語的に関連するピボット言語と少数ショットの文脈内の例を組み合わせた、データ効率の良い実験設定を研究し、統制された条件下で翻訳挙動を評価します。 私たちの分析は、ピボットベースのプロンプトが特定の構成で改善を生むことがある一方、特にターゲット言語がモデルの語彙で十分に表現されていない設定では、利得はしばしば控えめで、少数ショットの例の作成に敏感であることを示しています。 密接に関連する言語や、よりよく表現されている変種については、利得が減少するか不安定になることを観察します。 本研究の知見は、推論時プロンプティングとピボットベースの例を、低リソース翻訳設定におけるファインチューニングの軽量な代替として、いつどのように活用できるかについて実証的な指針を提供します。