Remask、置き換えないで:マスク付き拡散言語モデルにおけるトークン対マスクの改良(Token-to-Mask Refinement)
arXiv cs.CL / 2026/4/22
📰 ニュースModels & Research
要点
- 本論文は、マスク付き拡散言語モデルが Token-to-Token(T2T)編集で自らの誤りを修正する仕組みを分析し、このルールに内在する3つの構造的な失敗パターンを特定する。
- 代替として、Token-to-Mask(T2M)リマスキングを提案し、疑わしい位置をマスク状態にリセットして次のノイズ除去ステップで再予測できるようにする。
- T2Mは学習不要で編集手順のみを変更し、新たなパラメータを追加しないほか、リマスキングの実行判断に3つの検出ヒューリスティックを併用する。
- 8つのベンチマークで、T2Mは正確なトークン出力を必要とするタスクにおいて精度を向上させ、最大の改善はCMATHで+5.92ポイントとなり、最終段の「last-mile」崩れた最終解答の誤りの大きな割合を修復する。
- さらに著者らは、誤ったコミット済みトークンよりもマスクの条件付け信号が有効である理由について理論的な説明も提示する。



