LLMの「考えました」は8割嘘
Qiita / 3/29/2026
💬 OpinionIdeas & Deep AnalysisModels & Research
Key Points
- LLMが「考えました(思考した)」と示すCOT(Chain-of-Thought)には、実際に人間のような意図的推論がそのまま反映されていない可能性が高いと主張しています。
- COTを読んだりそれを根拠に判断したりすること自体が誤解を生みやすく、出力される“それらしい推論”を過信すべきでないという問題提起です。
- 「LLMの思考プロセス」として見せられるテキストが、学習されたパターンによる見せかけの説明になり得る点が中心論点です。
- その結果、プロンプト設計や評価(説明可能性の扱い、根拠の検証方法)を見直す必要がある、という実務的な示唆があります。
あなたがCoTを読んでいるとき、モデルは別のことを考えている
Thinking modelが流行っている。DeepSeek-R1、Claude 3.7 Sonnet、Qwen3.5——推論過程を見せてくれるモデルが増えた。
RTX 4060でQwen3.5-9Bを回してい...
Continue reading this article on the original site.
Read original →💡 Insights using this article
This article is featured in our daily AI news digest — key takeaways and action items at a glance.
Related Articles

AutoGen vs CrewAI: A Comprehensive Benchmark and Selection Guide for 2026
Dev.to

64 Deepfake Laws Passed — And Investigators Still Can't Prove What's Real in Court
Dev.to

Building with TIAMAT: Live API Demos
Dev.to
![[P] I trained an AI to play Resident Evil 4 Remake using Behavioral Cloning + LSTM](/_next/image?url=https%3A%2F%2Fexternal-preview.redd.it%2FzgmJOxETuqgqlsgMxeBl7S4gZNDHf_K3U9w883ioT4M.jpeg%3Fwidth%3D320%26crop%3Dsmart%26auto%3Dwebp%26s%3Da63f97b9d03c40b846cd3eaac472e78050020a43&w=3840&q=75)
[P] I trained an AI to play Resident Evil 4 Remake using Behavioral Cloning + LSTM
Reddit r/MachineLearning

How I Used AI to Generate Realistic Hug Videos from Static Photos
Dev.to