CAP-CoT:LLM推論における推論過程(Chain of Thoughts)を改善するためのサイクル敵対的プロンプト
arXiv cs.AI / 2026/4/28
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- Chain-of-Thought(CoT)プロンプトは、長い多段タスクで推論が不安定になり、同一の問題でも繰り返し実行ごとに異なる答えが出ることがあります。
- 本論文では、CAP-CoTというサイクル型の「敵対的プロンプト最適化」フレームワークを提案し、候補となるCoT鎖の生成、もっともらしいが意図的に誤ったCoT鎖を作るチャレンジャ、そして段階(ステップ)に対応した修正フィードバックの作成を通じて、単一のデプロイ済みLLMソルバを改善します。
- CAP-CoTは、チャレンジャが露呈させる誤りに基づいてソルバのプロンプトを更新し、次のサイクルではより的確な誤りを生むようにチャレンジャ側のプロンプトも更新することで、最適化ループを閉じます。
- 6つのベンチマークと4つのLLMバックボーンでの実験では、CAP-CoTが2〜3サイクルほどで実行間のばらつきを低減しつつ、推論精度とプロンプト摂動への頑健性を改善することが示されます。
- 敵対的コンポーネントは、ジャイルブレイクやプロンプトインジェクションのような安全回避ではなく、タスクの意味論に基づいて推論過程の論理的な脆弱性をあぶり出すことを目的としています。




