文レベルおよび文脈対応型の機械翻訳のためのクロス・プレファレンス・ラーニング
arXiv cs.CL / 2026/3/27
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、文脈対応型の機械翻訳(ドキュメントレベルの信号)が、文によって文脈の有用性が不均一に変わるため、しばしば文レベルMTを確実に上回ることができないと主張する。
- 文レベルMTと文脈対応型MTの補完的な強みを明示的にモデル化する、嗜好(プレファレンス)に基づく学習フレームワークであるクロス・プレファレンス・ラーニング(CPL)を提案する。
- CPLは、1つの最適化目的関数の中に、条件内(intra-condition)と条件間(cross-condition)の嗜好を組み込み、文脈情報がいつ、どのように翻訳品質を改善するかについての教師信号を与える。
- 複数のモデル(Qwen3-4B、Qwen3-8B、Llama-3-8B)を用いた、いくつかの公開されている文脈対応型MTベンチマークでの実験により、翻訳品質と頑健性の一貫した向上が示される。
- 改善は報告によれば、いかなるアーキテクチャ変更も伴わないため、CPLはモデル種別を超えて一般化し得る学習目的のアップグレードであることが示唆される。



