「step by step」は本当に精度が上がるのか — CoTとSelf-Consistencyをミニベンチで検証する
Zenn / 3/13/2026
💬 OpinionIdeas & Deep AnalysisTools & Practical Usage
Key Points
- CoTとSelf-Consistencyは推論を改善する可能性があるが、効果はタスクとプロンプト設計に依存する。
- ミニベンチの設定で段階的推論とSelf-Consistencyの比較を行い、どの状況で有効かを検証。
- すべてのケースで精度が上がるわけではなく、タスクの性質に応じて手法を使い分けるべきとの示唆。
- 実務上の示唆として計算コストやデータに基づく適切な戦略選択が重要。
- 推論戦略の比較フレームワークを提供し、モデル・データセット横断の評価を促進する。
はじめに
ルミナイR&Dチームの栗原です。
同じ LLM に同じ問題を解かせても、
そのまま聞く
step by step とお願いして Chain-of-Thought(CoT)させる
CoT を何回かやらせて 多数決 をとる(Self-Consistency)
まず「考え方」を自分で決めさせてから解かせる(Self-Discover 風)
といった プロンプトの違いだけ で、正答率がけっこう変わります。
本記事は、Wang らの論文
“Self-Consistency Improves Chain of Thought Reasoning in Language M...
Continue reading this article on the original site.
Read original →Related Articles

Attacks On Data Centers, Qwen3.5 In All Sizes, DeepSeek’s Huawei Play, Apple’s Multimodal Tokenizer
The Batch

ベテランの若手育成負担を減らせ、PLC制御の「ラダー図」をAIで生成
日経XTECH

Your AI generated code is "almost right", and that is actually WORSE than it being "wrong".
Dev.to

Lessons from Academic Plagiarism Tools for SaaS Product Development
Dev.to

Windsurf’s New Pricing Explained: Simpler AI Coding or Hidden Trade-Offs?
Dev.to