ETR: Entropy Trend Reward for Efficient Chain-of-Thought Reasoning

arXiv cs.AI / 4/8/2026

💬 OpinionSignals & Early TrendsIdeas & Deep AnalysisModels & Research

Key Points

  • 連鎖的思考(CoT)は高精度化に有効だが、推論が長く非効率になりやすく、既存手法は「不確実性が低いほど良い」という前提で長さを抑えることが多いと指摘しています。
  • この論文では、推論の効率は「不確実性(エントロピー)の軌跡」次第であり、エントロピーが優勢に下向きに推移するCoTほど大幅に短くなることを示します。
  • その洞察に基づき、Trajectory-awareな目的関数「Entropy Trend Reward(ETR)」を提案し、不確実性の漸進的な低減を促しつつ、局所的な探索は許容する形に設計しています。
  • ETRをGroup Relative Policy Optimization(GRPO)に統合して複数の推論モデル・難しめのベンチマークで評価した結果、DeepSeek-R1-Distill-7Bで精度が9.9%向上し、CoT長は4つのベンチマークで平均67%削減されたと報告しています。
  • 実装コードが公開されており、研究コミュニティが追試・導入しやすい形になっています(GitHubリンクあり)。

Abstract

Chain-of-thought (CoT) reasoning improves large language model performance on complex tasks, but often produces excessively long and inefficient reasoning traces. Existing methods shorten CoTs using length penalties or global entropy reduction, implicitly assuming that low uncertainty is desirable throughout reasoning. We show instead that reasoning efficiency is governed by the trajectory of uncertainty. CoTs with dominant downward entropy trends are substantially shorter. Motivated by this insight, we propose Entropy Trend Reward (ETR), a trajectory-aware objective that encourages progressive uncertainty reduction while allowing limited local exploration. We integrate ETR into Group Relative Policy Optimization (GRPO) and evaluate it across multiple reasoning models and challenging benchmarks. ETR consistently achieves a superior accuracy-efficiency tradeoff, improving DeepSeek-R1-Distill-7B by 9.9% in accuracy while reducing CoT length by 67% across four benchmarks. Code is available at https://github.com/Xuan1030/ETR