幻覚(ハルシネーション)による信頼の毀損:メタ認知が前進の道

arXiv cs.CL / 2026/5/5

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 生成AI、特にLLMは、事実性の信頼性が向上してもなお幻覚(ハルシネーション)を起こし続けており、グラウンドトゥルースが明確で外部ツールもない単純な事実質問応答でも誤りが生じます。
  • 論文は、過去の事実性向上の多くが「モデルの知識境界を広げる(より多くの事実を符号化する)」ことであって、「知っていることと知らないことを見分ける境界認識を高める」ことではなかったと主張します。
  • 後者には本質的な難しさがあるとし、モデルが真実と誤りを完全に分離するのに十分な判別能力を持たない可能性があるため、幻覚を減らすことと有用性を保つことの間に避けがたいトレードオフが生まれると推測します。
  • それに対し、答えるか拒否するか(answer-or-abstain)の二択を超える枠組みとして、「確信を伴う誤り」を幻覚と捉え、適切な資格づけなしに誤った情報を自信満々に提示するものだと整理します。
  • 「faithful uncertainty(忠実な不確実性)」として、言語上の不確実性が内在する不確実性を反映するようにすることを提案し、これは自己の不確実性を認識してそれに基づいて行動するメタ認知に結びつくと結論づけます。