x1:言語と文化をまたいで適応的に考えることを学習する

arXiv cs.CL / 2026/4/21

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、各入力に対して最適な「推論言語」を適応的に選べるように設計された推論モデル群x1を提案し、単一の主要言語への依存から脱却します。
  • x1は、モデルの知識境界を広げることなく訓練され、同一プロンプトに対する言語的に異なる推論の軌跡を対比させることで「推論言語選択」の影響を切り分けます。
  • 実験では、適応的な多言語推論が、多言語の数学推論タスクだけでなく、文化に根ざしたタスクでも有効であることが示されています。
  • 結果は、スケーリング則を単純に捉える見方に疑問を投げかけます。数学のような手続き的領域ではスケールによって言語間の差が縮小しても、文化に根ざしたタスクでは文化関連言語の利点が残り、より効率的かつ正確な文化的知識の想起につながることが実証されています。
  • 本研究は「言語選択」を推論の機能的な構成要素として位置づけ、より汎用的でグローバルに適応できる推論モデルの構築への示唆を与えています。

Abstract

言語は固有の抽象化と帰納的な事前知識を符号化しているが、ほとんどの大規模言語モデル(LLM)は、この多様性を、一つの支配的な言語で推論することによって見落としている。本研究では、インスタンスごとに有利な言語で適応的に推論できる推論モデル群x1を提案する。推論言語の選択が与える影響を切り分けるため、x1はモデルの知識境界を拡張することなく構築され、同一入力に対して言語的に異なる推論経路を対比させることで学習される。広範な実験により、多言語の数学的推論から文化に根ざしたタスクに至るまで、適応的な多言語推論がもたらす利点を示す。さらに、本結果はスケーリング則に対する単純な見方に挑戦する。すなわち、スケーリングによって数学推論のような手続き的領域における言語間の差異は減少するが、文化に根ざしたタスクでは文化に結び付いた言語の優位性はなくならない。本研究では、そのような推論が文化的知識の想起をより効率的かつ正確に可能にすることを経験的に示す。全体として、本発見は、言語選択を推論の機能的な構成要素として位置づけるものであり、より一般的で、グローバルに有能な推論モデルを構築するうえでの示唆となる。