コスト効率のよいMixture-of-Experts(MoE)LLM提供のためのネットワークトポロジ再考
arXiv cs.AI / 2026/5/4
💬 オピニオンDeveloper Stack & InfrastructureModels & Research
要点
- Mixture-of-experts(MoE)LLMの提供では通信がランタイムの大きな割合を占めるため、これまで高帯域の高価なスケールアップ・ネットワークへの投資が進んできたが、その必要性を見直す議論が提示された。
- 本稿は、スケールアップ、スケールアウト、3Dトーラス、3Dフルメッシュの4つのXPUトポロジについて、ネットワークの費用対効果をクロスレイヤで体系的に比較し、スイッチレス(スイッチ無し)系トポロジがスケールアップより全シナリオで有利だと示した。
- スイッチレス・トポロジはコスト効率を20.6〜56.2%改善し、特に3Dフルメッシュは性能とコストのトレードオフでパレート最適であると結論づけた。
- さらに、スケールアップ側のリンク帯域が過剰に見積もられている可能性があり、帯域を下げることでスループット/コストが最大27%向上し得ること、そして次世代GPUでもスイッチレスのコスト優位が継続しそうだと予測した。



