注意の不整合を用いた翻訳ハルシネーションの検出

Towards Data Science / 2026/4/9

💬 オピニオンIdeas & Deep AnalysisTools & Practical UsageModels & Research

要点

  • 記事は、ニューラル機械翻訳の出力に対するトークン単位の不確実性を、注意行動を調べることで見積もる低コストな手法を提案する。
  • 翻訳ハルシネーションの可能性を検出する手がかりとして、注意の不整合を用いることに焦点を当てている。
  • このアプローチは、高価な追加モデリングや重いインフラを必要とせずに不確実性推定を提供することを目指す。
  • 全体として、モデルが誤りそうな箇所を特定することで、翻訳システムの信頼性と診断性を高めるための利用しやすい技術を提示している。

ニューラル機械翻訳におけるトークン単位の不確実性推定を低コストで実現する方法

この記事 注意の不整合による翻訳幻覚の検出 は、Towards Data Science に最初に掲載されました。