OpenAI、AMDやBroadcom、Intel、Microsoft、NVIDIAとAIスーパーコンピューターのボトルネック解消へ向けたネットワークプロトコルを開発

THE DECODER / 2026/5/7

📰 ニュースDeveloper Stack & InfrastructureIndustry & Market MovesModels & Research

要点

  • OpenAIは、AMD、Broadcom、Intel、Microsoft、NVIDIAと共同で、AIスーパーコンピューター向けのGPU間データ転送を改善することを目的としたオープンソースのネットワークプロトコル「MRC」を開発しました。
  • MRCは数百の経路に同時にデータを送る設計で、複数のスイッチ層への依存を減らし、100,000台超のGPUを接続する際に必要なスイッチ段数を少なくできます。
  • このプロトコルはすでにOpenAIの「Stargate」スーパーコンピューター上で稼働しており、構想段階から実運用へ移っていることが示されています。
  • 3〜4層のスイッチではなく2層で済むことで、電力消費とネットワークコストの削減を狙い、AIインフラにおける重要なボトルネックに対処します。

OpenAIはAMD、Broadcom、Intel、Microsoft、NVIDIAと提携し、MRCというオープンソースのネットワーク・プロトコルを開発しました。MRCは、GPU間で数百の経路を同時にまたいでデータを送信します。スイッチの層を3つまたは4つ使う代わりに、MRCでは2つの層だけで10万台を超えるGPUを接続でき、その結果、電力とコストの両方を削減できます。このプロトコルはすでにOpenAIのStargateスパコンで稼働しています。

この記事はAIスパコンのボトルネックを解消するために、AMD、Broadcom、Intel、Microsoft、NVIDIAとともにOpenAIがネットワーキング・プロトコルを構築として、The Decoderに最初に掲載されました。