マルチモーダルAI幻覚の検証可能性を制御する
arXiv cs.AI / 2026/4/10
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、マルチモーダルLLMの幻覚が、人間にとってどれだけ検出しやすいかという点で異なることを主張し、検証可能性によって「明白な」タイプと「とらえにくい」タイプに分類している。
- 4,470件の人間の回答を用いて、AIが生成した幻覚に関するデータセットを構築し、ユーザがそれらを確実に検証できるかどうかに基づいて幻覚にラベル付けしている。
- 著者らは、明白な幻覚ととらえにくい幻覚にそれぞれ注目する別個のプローブを訓練する、アクティベーション空間への介入手法を提案している。
- 実験結果は、介入を微細な粒度で検証可能性を調整できること、さらに介入の混合によりシナリオ依存の制御が可能であることを示している。



