制約下でのコヒーレンス

Reddit r/artificial / 2026/4/16

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 著者は、小規模な実験によってLLMを未解決の矛盾へと強制し、その重要な差は「単なる失敗」ではなく、制約下で各モデルがどのように失敗するかにあることを報告する。
  • 観察されたパターンでは、ChatGPTは矛盾を検出する傾向があるものの反応が遅く、矛盾を完全には解消しない回答を生成することがあり、さらに明示的な再枠組み(リフレーミング)を避ける場合もある。
  • Geminiは矛盾を検出し、そのまま(回答を出して)続行する可能性があるとされる一方で、拒否よりも再枠組みを行う傾向があり、ChatGPTよりも強い「認識論的フレーミング(epistemic framing)」を示す。
  • Claudeは、敵対的な設定を検出してより早い段階でフレーミングを立て直し、高い認識論的フレーミングを維持するが、他のモデルと比べて初期の拒否後に回答を生成する可能性が低いと報告されている。
  • この記事は、他者に対して結果の再現を促したり、モデルのコヒーレンス、矛盾の取り扱い、安全/拒否行動に関する既存の研究との関連づけを呼びかけている。

私は、LLMを解決できない矛盾へと無理やり追い込む小さな実験をいくつか行ってきました。
驚いたのは、失敗することではなく、失敗のしかたがそれぞれどれほど違うのかという点です。

私が見ている大まかなパターン:

挙動 ChatGPT Gemini Claude
矛盾を検出する
拒否のタイミング 遅い 決してない 早い
それでも回答を生成する
矛盾を言い換える
敵対的なセットアップを検出する
認識論的な枠組みを維持する 非常に高い

他の人も同様の挙動を見たことがあるのか、それとも既存の研究と一致しているのか気になります。

提供者 /u/BorgAdjacent
[リンク] [コメント]