機械翻訳品質推定のアノテータとしての大規模言語モデル
arXiv cs.CL / 2026/3/12
💬 オピニオンModels & Research
要点
- 大規模言語モデル(LLMs)を MQMスタイルのアノテーションを生成するための生成源として提案し、直接LLMsを使用する際の高い推論コストに対処します。
- 本論文は、トップレベルのカテゴリに限定した簡略化された MQM スキームと、PPbMQM(Prompt-Pattern-based-MQM)と名付けられた GPT-4o ベースのプロンプトフレームワークを導入します。
- 結果は、LLM生成のアノテーションが人間のアノテーションと良く相関すること、そしてそれらを用いて COMET を訓練すると中国語-英語および英語-ドイツ語のセグメントレベル QE で競争力のある性能を得られることを示します。
- このアプローチは、デプロイ時の推論ではなくアノテーションに LLMs を活用することで、よりコスト効率の高い MTQE パイプラインを実現します。
大規模言語モデル(LLMs)は機械翻訳品質推定(MTQE)で優れた性能を示しているが、その高い推論コストが直接的な適用を現実的でなくしている。本研究では、LLMsを用いてMQMスタイルのアノテーションを生成し、COMETモデルの訓練に活用することを提案します。Fernandes ら(2023)に従い、セグメントレベルのアノテーションはLLMsに対して強力な根拠を提供し、良好なセグメントレベルQEの鍵となると考えます。LLM選択の指針として、トップレベルのカテゴリに主に限定した簡略化されたMQMスキームを提案します。GPT-4oベースのプロンプト開発のための体系的アプローチを提示し、それをPPbMQM(Prompt-Pattern-based-MQM)と呼ぶ。得られたアノテーションは人間のアノテーションと良く相関すること、そしてそれらを用いてCOMETを訓練すると、中国語-英語および英語-ドイツ語のセグメントレベルQEで競争力のある性能を示すことを示します。


![[ニューラルネットワーク] 今こそ起源を見つめる時 Ep.5 (最終話) 〜情熱の連鎖が明日を照らす〜](/_next/image?url=https%3A%2F%2Fassets.st-note.com%2Fproduction%2Fuploads%2Fimages%2F260885500%2Frectangle_large_type_2_f8df7c72d21f86c39d4096dd995f50d1.png%3Fwidth%3D219%26dpr%3D2%26frame%3D1%26format%3Djpg&w=3840&q=75)
