言語数を減らしトークン数も減らす:効率的な統一ロジックによる多言語チェーン・オブ・ソート推論フレームワーク
arXiv cs.CL / 2026/4/23
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 本論文では、既存の高コストな全軌跡サンプリング手法に比べて、推論時の冗長なトークン利用とレイテンシを削減する効率的な多言語チェーン・オブ・ソート推論フレームワーク「UL-XCoT」を提案しています。
- UL-XCoTは、言語不変な統一ロジックスペース上でクエリごとに候補となる少数の言語セットを選択することで、広範に多言語を評価する必要を減らします。
- デコード中に、ロジックスペース上の軌跡ダイナミクスを監視して質の低い推論経路を枝刈りし、その後は残った高品質な軌跡を投票で集約します。
- PolyMath(18言語)およびMMLU-ProX-Lite(29言語)で DeepSeek-R1-DistillQwen-7B を用いた実験では、精度は競争力を維持しつつ、従来のサンプリング基準に対してデコード時のトークンコストを50%以上削減できることが示されています。
- 標準的なXCoT自己整合(self-consistency)では一貫した改善が得にくい低リソース言語に対して、より安定した効果が確認されています。




