ハルシネーションを性能劣化なしで抑えるための大規模ビジョン・言語モデル手法
arXiv cs.CV / 2026/4/23
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 大規模ビジョン・言語モデル(LVLM)は強力な生成能力を持つ一方で、出力の信頼性を損なうハルシネーション(虚偽生成)を頻繁に起こします。
- ハルシネーションのない注釈データでの微調整は最も直接的ですが計算コストが高く、そこで表現ベースの手法が提案されています。
- しかし従来の表現ベース手法は、ハルシネーション成分の抽出が不完全だったり、更新が非選択的だったりするため、一般的な生成能力が低下することがあると実験で示されています。
- これを踏まえ、本論文はMPDという二段階フレームワークを提案し、(1)意味に基づいてハルシネーション成分を分解して抽出し、(2)ハルシネーションに関連するパラメータのみを選択的に解釈可能に更新することで、性能劣化なしにハルシネーションを抑えます。




