Mixture of Experts(モエ)と大規模言語モデルによるエージェント型AIを用いた共同計算・ネットワーキング

arXiv cs.LG / 2026/5/6

📰 ニュースDeveloper Stack & InfrastructureIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、6Gモバイルネットワークの最適化のために、mixture of experts(MoE)と大規模言語モデル(LLM)を組み合わせ、特化した最適化「エキスパート」を選択・統括するエージェント型AIフレームワークを提案しています。
  • 提案手法では、LLMがセマンティックゲートとして機能し、オペレータの目的や不確実性の記述を解釈して、最適な最適化エージェントを動的に組み合わせます。
  • このフレームワークはモデル非依存として設計されており、人間が読めるネットワーク意図を、低レベルのリソース割当の意思決定へと変換し、多様な目的や運用条件に柔軟に対応します。
  • 共同通信・計算ネットワークの事例として、スループット、フェアネス、遅延ベースの目的に合わせた専門家ライブラリを、通常条件とロバスト条件の両方で構成しています。
  • シミュレーションでは、全組合せのエキスパート探索に対してほぼ最適な性能を達成しつつ、単一エキスパートではカバーしにくい複数の目的(遅延最小化やスループット最大化など)で優れることが示されています。