MARS: Enabling Autoregressive Models Multi-Token Generation

arXiv cs.CL / 4/9/2026

💬 OpinionDeveloper Stack & InfrastructureIdeas & Deep AnalysisModels & Research

Key Points

  • MARS(Mask AutoRegreSsion)は、既存のinstruction-tunedな自己回帰(AR)言語モデルに軽量な追加学習を行い、1回のforward passで複数トークンを予測できるようにする手法を提案している。
  • MARSは新しいアーキテクチャ変更や追加パラメータを必要とせず、元のARモデルと同じ呼び出し手順のまま性能劣化なしで多トークン生成に対応する。
  • 通常の1トークン/ステップの生成では6つの標準ベンチマークでARベースラインに匹敵または上回り、複数トークン/ステップでもベースライン精度を維持しつつ1.5〜1.7倍のスループットを実現する。
  • さらにブロック単位のKVキャッシュ戦略によりバッチ推論で最大1.71倍のウォールクロックスピードアップを示し、確信度(confidence)しきい値によるリアルタイムの速度調整(高負荷時にスループットを増やす)も可能としている。

Abstract

Autoregressive (AR) language models generate text one token at a time, even when consecutive tokens are highly predictable given earlier context. We introduce MARS (Mask AutoRegreSsion), a lightweight fine-tuning method that teaches an instruction-tuned AR model to predict multiple tokens per forward pass. MARS adds no architectural modifications, no extra parameters, and produces a single model that can still be called exactly like the original AR model with no performance degradation. Unlike speculative decoding, which maintains a separate draft model alongside the target, or multi-head approaches such as Medusa, which attach additional prediction heads, MARS requires only continued training on existing instruction data. When generating one token per forward pass, MARS matches or exceeds the AR baseline on six standard benchmarks. When allowed to accept multiple tokens per step, it maintains baseline-level accuracy while achieving 1.5-1.7x throughput. We further develop a block-level KV caching strategy for batch inference, achieving up to 1.71x wall-clock speedup over AR with KV cache on Qwen2.5-7B. Finally, MARS supports real-time speed adjustment via confidence thresholding: under high request load, the serving system can increase throughput on the fly without swapping models or restarting, providing a practical latency-quality knob for deployment.