概要: モード崩壊は生成モデルにおける持続的な課題であり、自回帰(autoregressive)のテキスト生成では、明示的なループから多様性の段階的な喪失、さらには軌道の早期収束まで、さまざまな振る舞いとして現れます。私たちはダイナミカルシステムの観点を取り入れ、モード崩壊を *幾何学的崩壊(geometric collapse)* による状態空間の到達可能性の低下として再解釈します。生成中、モデル内部の軌跡が、その表現空間における低次元の領域に閉じ込められるためです。これは、モード崩壊が単にトークン単位の現象ではなく、象徴的な制約や確率のみのデコーディングに関するヒューリスティックでは信頼性をもって解決できないことを意味します。この観点に導かれ、*強化モード調整*(Reinforced Mode Regulation: RMR)を提案します。RMRは、Transformerの価値キャッシュ(value cache)における支配的な自己強化的方向を調整する、軽量なオンライン状態空間介入であり(低ランク減衰として実装)、複数の大規模言語モデルにおいて、RMRはモード崩壊を大幅に低減し、極めて低いエントロピー率でも安定した高品質な生成を可能にします(0.8 nats/step まで)。一方で、標準的なデコーディングは通常、2.0 nats/step 付近で崩壊します。
幾何学的制御によってLLM生成におけるモード崩壊を回避する
arXiv cs.AI / 2026/5/4
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、自回帰型LLMのテキスト生成におけるモード崩壊をダイナミカルシステムの観点から捉え直し、表現空間でのモデルの軌跡が低次元領域に閉じ込められる「幾何学的崩壊」が原因だと主張しています。
- 著者らは、モード崩壊が単なるトークン単位の現象ではないため、シンボリック制約や確率ベースのデコーディングヒューリスティックだけで確実に解決するのは難しいと述べています。
- Reinforced Mode Regulation(RMR)と呼ばれる軽量なオンライン介入を提案し、Transformerのvalueキャッシュにおける支配的な自己強化方向を、低ランク減衰によって調整します。
- 複数の大規模言語モデルに対する実験では、RMRがモード崩壊を大幅に抑え、極めて低いエントロピー率でも生成を安定かつ高品質に維持できることを示し、標準デコーディングの約2.0 nats/stepから0.8 nats/stepまで改善しています。
- 全体として、本研究はLLMの内部状態空間の到達可能性を制御することで、多様性の崩壊を表面的なデコーディング調整より効果的に緩和できる可能性を示しています。




