分離情報ボトルネックを介したマルチリンガルLLMをジャッジとして用いる際の翻訳偏向の緩和
arXiv cs.CL / 2026/3/12
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- この論文は、マルチリンガルLLM評価における翻訳偏向を特定し、LLMが人間著作の参照より機械翻訳テキストを優先する傾向を示す。特にデータ資源が乏しい言語で顕著である。
- この偏向は、英語との潜在的マニフォールド整列および跨言語予測可能性との偽りの相関に起因すると説明される。
- 分離情報ボトルネックに基づく堅牢なファインチューニングフレームワークであるDIBJudgeを提案する。DIBJudgeは、変分情報圧縮を介して判断に必要最小限かつ十分な表現を学習し、偽の要因を専用のバイアスブランチに分離する。
- さらに、頑健な表現とバイアス表現間の統計的依存を明示的に抑制するクロス共分散ペナルティを導入し、効果的な解離を促進する。
- マルチ言語対応の報酬モデリングベンチマークと専用の翻訳偏向評価スイートに対する実験結果は、DIBJudgeが強力なベースラインを一貫して上回り、翻訳偏向を大幅に緩和することを示している。
大規模言語モデル(LLMs)は多言語評価の標準となっているが、深刻な体系的な翻訳偏向を示す。本論文では、翻訳偏向を、LLMsが人間著作の参照より機械翻訳テキストを体系的に優先する現象として特徴づける。特に資源の乏しい言語で顕著である。我々はこの偏向を(i) 英語との潜在的マニフォールド整列、および(ii) 跨言語予測可能性との偽の相関に起因すると考える。 この偏向を緩和するために、変分情報圧縮を介して判断に必要最小限かつ十分な表現を学習し、偽の要因を専用のバイアスブランチに明示的に分離する堅牢なファインチューニングフレームワークであるDIBJudgeを提案する。さらに、頑健な表現とバイアス表現間の統計的依存を明示的に抑制するクロス共分散ペナルティを組み込み、効果的な解離を促進する。 多言語報酬モデリングベンチマークと専用の翻訳偏向評価スイートでの広範な評価は、提案されたDIBJudgeが強力なベースラインを一貫して上回り、翻訳偏向を大幅に緩和することを示している。