A transformer architecture alteration to incentivise externalised reasoning
arXiv cs.AI / 3/24/2026
💬 OpinionSignals & Early TrendsIdeas & Deep AnalysisModels & Research
Key Points
- 研究は、LLMsをより“verbose”な推論者にするための、トランスフォーマーの新しいアーキテクチャ改変(中間層でのearly-exit機構)とポストトレーニング手法を提案している。
- モデルは前向き計算を途中で打ち切り、次トークンが深い計算なしに予測できる場合はより浅い層で終了するよう学習する。
- キャリブレーション段階の後、強化学習で“できるだけ早く退出する”ことを促しつつ、タスク性能を維持するよう最適化する。
- 小規模の推論モデルでの予備結果では、トークンごとに計算量を適応的に削減する挙動が見られる。
Related Articles

Composer 2: What is new and Compares with Claude Opus 4.6 & GPT-5.4
Dev.to
How UCP Breaks Your E-Commerce Tracking Stack: A Platform-by-Platform Analysis
Dev.to
AI Text Analyzer vs Asking Friends: Which Gives Better Perspective?
Dev.to
[D] Cathie wood claims ai productivity wave is starting, data shows 43% of ceos save 8+ hours weekly
Reddit r/MachineLearning

Microsoft hires top AI researchers from Allen Institute for AI for Suleyman's Superintelligence team
THE DECODER