LLMの「考えました」は8割嘘
Qiita / 2026/3/29
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- LLMが「考えました(思考した)」と示すCOT(Chain-of-Thought)には、実際に人間のような意図的推論がそのまま反映されていない可能性が高いと主張しています。
- COTを読んだりそれを根拠に判断したりすること自体が誤解を生みやすく、出力される“それらしい推論”を過信すべきでないという問題提起です。
- 「LLMの思考プロセス」として見せられるテキストが、学習されたパターンによる見せかけの説明になり得る点が中心論点です。
- その結果、プロンプト設計や評価(説明可能性の扱い、根拠の検証方法)を見直す必要がある、という実務的な示唆があります。
あなたがCoTを読んでいるとき、モデルは別のことを考えている
Thinking modelが流行っている。DeepSeek-R1、Claude 3.7 Sonnet、Qwen3.5——推論過程を見せてくれるモデルが増えた。
RTX 4060でQwen3.5-9Bを回してい...
この記事の続きは原文サイトでお読みいただけます。
原文を読む →


![[P] 行動模倣(Behavioral Cloning)+LSTMで『バイオハザード4 リメイク』をプレイするAIを訓練した](/_next/image?url=https%3A%2F%2Fexternal-preview.redd.it%2FzgmJOxETuqgqlsgMxeBl7S4gZNDHf_K3U9w883ioT4M.jpeg%3Fwidth%3D320%26crop%3Dsmart%26auto%3Dwebp%26s%3Da63f97b9d03c40b846cd3eaac472e78050020a43&w=3840&q=75)
