同じ質問で5つの全く違う回答が返ってきた -- LLMが嘘をつく構造的な理由

Zenn / 2026/4/28

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 同じ質問に対してLLMが異なる回答を複数返す現象を起点に、嘘が単なるミスではなく「構造的に」発生しうる理由を説明しています。
  • LLMが学習データから確率的に次トークンを生成する仕組みゆえ、曖昧さや条件の解釈が揺れると、同一質問でも出力が分岐してしまいます。
  • 生成時の探索(サンプリング/推論の選択)や、回答に必要な事実の欠落・推定をモデルが補う挙動が、誤情報(尤もらしい誤答)につながると整理しています。
  • その結果、ユーザーは「一貫した正解」を得られるとは限らず、出力の信頼性を検証する設計・運用が重要になるという示唆が含まれます。
同じ質問を5回投げたら、5つの別のツールの説明が返ってきた 架空の社内認証ツール「PropelAuth」について、こんな質問をしてみました。 PropelAuthの組織管理機能について教えてください。具体的に、組織の作成、ユーザーの招待、権限管理はどのように行われますか? 同じLLM(Claude Sonnet 4)に、コンテキストの与え方だけを変えて5回投げる。返ってきた回答は、まるで5つの違うサービスの仕様書でした。 回答品質は4軸で評価しました。事実正確性(仕様と合っているか)、幻覚抑制(根拠のない情報を避けているか)、具体性(実用的な詳細があるか)、誠実性(「わか��ない...

この記事の続きは原文サイトでお読みいただけます。

原文を読む →