Mixture of Experts(モエ)と大規模言語モデルによるエージェント型AIを用いた共同計算・ネットワーキング
arXiv cs.LG / 2026/5/6
📰 ニュースDeveloper Stack & InfrastructureIdeas & Deep AnalysisModels & Research
要点
- 本論文は、6Gモバイルネットワークの最適化のために、mixture of experts(MoE)と大規模言語モデル(LLM)を組み合わせ、特化した最適化「エキスパート」を選択・統括するエージェント型AIフレームワークを提案しています。
- 提案手法では、LLMがセマンティックゲートとして機能し、オペレータの目的や不確実性の記述を解釈して、最適な最適化エージェントを動的に組み合わせます。
- このフレームワークはモデル非依存として設計されており、人間が読めるネットワーク意図を、低レベルのリソース割当の意思決定へと変換し、多様な目的や運用条件に柔軟に対応します。
- 共同通信・計算ネットワークの事例として、スループット、フェアネス、遅延ベースの目的に合わせた専門家ライブラリを、通常条件とロバスト条件の両方で構成しています。
- シミュレーションでは、全組合せのエキスパート探索に対してほぼ最適な性能を達成しつつ、単一エキスパートではカバーしにくい複数の目的(遅延最小化やスループット最大化など)で優れることが示されています。




