文レベルおよび文脈対応型の機械翻訳のためのクロス・プレファレンス・ラーニング

arXiv cs.CL / 2026/3/27

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、文脈対応型の機械翻訳(ドキュメントレベルの信号)が、文によって文脈の有用性が不均一に変わるため、しばしば文レベルMTを確実に上回ることができないと主張する。
  • 文レベルMTと文脈対応型MTの補完的な強みを明示的にモデル化する、嗜好(プレファレンス)に基づく学習フレームワークであるクロス・プレファレンス・ラーニング(CPL)を提案する。
  • CPLは、1つの最適化目的関数の中に、条件内(intra-condition)と条件間(cross-condition)の嗜好を組み込み、文脈情報がいつ、どのように翻訳品質を改善するかについての教師信号を与える。
  • 複数のモデル(Qwen3-4B、Qwen3-8B、Llama-3-8B)を用いた、いくつかの公開されている文脈対応型MTベンチマークでの実験により、翻訳品質と頑健性の一貫した向上が示される。
  • 改善は報告によれば、いかなるアーキテクチャ変更も伴わないため、CPLはモデル種別を超えて一般化し得る学習目的のアップグレードであることが示唆される。