MoEにおけるエキスパート専門化神話:ルーティングは領域専門性というより幾何学を反映する理由

arXiv cs.AI / 2026/4/14

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、Mixture of Experts(MoE)モデルにおいてルータの線形性が示すのは、ルーティング・アーキテクチャに明示的に符号化された領域専門性によるのではなく、表現空間における隠れ状態の類似性によって説明される「エキスパート利用の類似性」であると主張する。
  • 隠れ状態の類似性が、類似したエキスパート選択に対して必要十分条件であることを証明し、5つの事前学習済みモデルにおいてトークンレベルおよびシーケンスレベルの双方でこの主張を検証する。
  • 著者らは、ロードバランシング損失が共有された隠れ状態の方向性を抑制し、ルーティングの多様性を維持することを示し、小さいバッチサイズのようなデータの多様性が低い条件下で起こる「専門化の崩壊(specialization collapse)」を理論的に説明する。
  • 機械論的な説明は数学的に基礎づけられているものの、得られる専門化パターンは人間にとって解釈しづらい。観測されるエキスパートの重複やルーティング相関は、直感的な意味的関係やモデル間の関係を追跡できていない。
  • 本研究は、エキスパートの専門化を完全に理解することは、LLMの隠れ状態の幾何学を理解するのと同程度に難しいと結論づけ、効率性重視のMoE観点を越えて、未解決の問題として開かれていることを強調する。

要旨: Mixture of Experts(MoE)は大規模言語モデルで今や一般的ですが、「エキスパートの専門化」がどのように生じるのかという仕組みは、いまだ十分に理解されていません。本研究では、MoEルータが線形写像であることから、隠れ状態の類似性がエキスパートの使用の類似性を説明するのに必要かつ十分であることを示します。したがって、専門化はルーティング・アーキテクチャそのものではなく、表現空間における創発的な性質です。さらに、5つの事前学習済みモデルにおいて、トークンレベルとシーケンスレベルの両方でこれを確認します。加えて、負荷分散損失が、ルーティング多様性を維持するために共有の隠れ状態の方向性を抑制することを証明します。これは、多様性の低いデータ、たとえば小さなバッチのもとで生じる専門化の崩壊を理論的に説明する可能性があります。このように明快なメカニズムの説明にもかかわらず、事前学習済みMoEにおける専門化パターンは、人間が解釈することに抵抗を示すことが分かりました。同じ質問に答える異なるモデル間のエキスパートの重なりは、まったく異なる質問間の重なりよりも高くならず(  約60%)、プロンプトレベルのルーティングはロールアウトレベルのルーティングを予測しません。また、より深い層では、意味的に無関係な入力に対しても、推論モデルにおいて特に、ほぼ同一のエキスパート活性が観測されます。以上より、MoEの効率性の観点はよく理解されている一方で、エキスパートの専門化を理解することは、少なくともLLMの隠れ状態の幾何学を理解するのと同程度に難しく、文献における長年の未解決課題であると結論づけます。