ReflectMT:効率的かつ高品質な機械翻訳のための内在化されたリフレクション
arXiv cs.CL / 2026/4/22
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- ReflectMTは、従来の「考えてから翻訳する(think-first-then-translate)」ではなく、「まず翻訳してから考える(translate-first-think-later)」というより効率的なパラダイムを機械翻訳に適用する新しい手法です。
- この方法は強化学習による2段階プロセスを用い、まずリフレクションとリファインの品質を高め、次にそのリフレクションから得た知識をモデルに内在化させます。
- 学習後、ReflectMTは推論時に明示的な多段推論ステップなしで直接翻訳を行い、高品質な出力を初回から生成します。
- WMT24を含むデータセットでの実験では、DeepSeek-R1のような多段推論型LRMよりも、自動評価とGPTベース評価の両方で初回翻訳が上回り、さらにトークン使用量を大幅に削減(94.33%)できることが示されています。
- GPTベースの翻訳品質評価で2.16ポイントの改善が報告されており、品質向上と推論効率の大幅な改善を両立する点が強調されています。



