AI Navigate

Nvidia、OpenAI、Anthropic、Metaを含む7チップAIプラットフォーム『Vera Rubin』を発表

VentureBeat / 2026/3/17

📰 ニュースDeveloper Stack & InfrastructureIndustry & Market Moves

要点

  • Nvidiaは、Blackwellと比較してワットあたりの推論スループットを最大10倍、トークンあたりのコストを10分の1にする実運用中の7チップAIプラットフォーム「Vera Rubin」を発表し、AIインフラの世代的飛躍だと位置づけた。
  • このプラットフォームにはAnthropic、OpenAI、Meta、Mistral AIなどの著名な顧客が支援しており、提供者にはAWS、Google Cloud、Microsoft Azure、Oracle Cloudが含まれ、80社を超える製造パートナーが周辺のシステムを構築している。
  • Vera Rubinのアーキテクチャは、Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6 Ethernet Switch、Groq 3 LPUを組み合わせ、AIエージェントを動かすことを目的とした5つの相互連携型ラック規模システムとして構築されている。
  • NvidiaのCEOジェンセン・フアンは、本発表を歴史上最大規模のインフラ拡張の始まりと位置づけ、AnthropicとOpenAIの幹部はこのプラットフォームがより強力でスケーラブルかつ信頼性の高いAIシステムの実現を可能にすると述べた。

Nvidiaは月曜日に、7つのチップから構成され、現在本格生産中の新しい広範な計算プラットフォーム Vera Rubin を発表しました — また Anthropic、OpenAI、Meta、Mistral AI を含む驚異的な顧客陣と、主要なクラウドプロバイダ全ての支援を受けています。

AI業界と投資家に向けたメッセージは、間違いなく明確だった:Nvidiaはペースを落とさない。 Vera Rubin platformは、Blackwellシステムと比較してワットあたり推論スループットを最大10倍、トークンあたりのコストを1/10とする。Blackwellは最近出荷を開始したばかりだ。CEOのJensen Huangは、同社の年次 GTCカンファレンス で、それを「世代的な飛躍」と呼び、「史上最大のインフラ建設の開始だ」と語った。 Amazon Web ServicesGoogle CloudMicrosoft AzureOracle Cloud Infrastructure は全てこのプラットフォームを提供する。さらに80社を超える製造パートナーがこの周辺でシステムを構築している。

「Vera Rubinは、7つのブレークスルーチップ、5ラック、1つの巨大なスーパコンピューターという世代を超えた飛躍だ。AIのあらゆる段階を支えるために作られた」と Huang は宣言した。「エージェント型AIの転換点が到来しており、Vera Rubinが史上最大のインフラ建設を開始する。」

他のどの産業でも、このような修辞は基調講演の劇として片付けられるかもしれない。しかしNvidiaは世界経済において特異な地位を占めている――その製品はAIブームにとって不可欠となり、時価総額は中規模国家のGDPに匹敵するほどになっている。Huangがインフラ建設を史上最大級と述べるとき、実際に支払いをしている企業のCEOたちが彼の背後に立ち、頷いている。

Dario Amodei、AnthropicのCEOは、「Nvidiaのプラットフォームは私たちに計算能力、ネットワーキング、システム設計を提供してくれることで、顧客が依存する安全性と信頼性を高めながら継続的に成果を出し続けられる」と述べた。OpenAIのCEO Sam Altmanは、「Nvidia Vera Rubinとともに、より強力なモデルとエージェントを巨大な規模で走らせ、数億人に対してより速く、より信頼性の高いシステムを提供する」と述べた。

AIエージェント時代を支える7チップ構造の内部

Vera Rubin platformは、Nvidia Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6 Ethernetスイッチ、そして新たに統合されたGroq 3 LPU - 用途別推論アクセラレータを一堂に集めたものです。Nvidiaはこれらを、統合されたスーパーコンピューターとして機能する5つの相互連結ラックスケールシステムとして構成しました。

旗艦の NVL72 rack は、72個のRubin GPUと36個の Vera CPUを NVLink 6 で接続して統合します。Nvidiaは、Blackwellで必要とされるGPUの4分の1を使って大規模混合専門家モデルの訓練が可能だと述べています。生産で検証されれば、最前線のAIシステムを構築する経済を根本的に変えるとされています。

Vera CPU rackは256個の液浸冷却プロセッサを1ラックに詰め込み、22,500以上の同時CPU環境を維持します — AIエージェントがコードを実行し、結果を検証し、反復するサンドボックスです。NvidiaはVera CPUをエージェント型AIと強化学習のために特別に設計された最初のプロセッサとして説明しており、88個のカスタム設計の Olympus コアと LPDDR5X メモリを備え、従来のサーバーCPUの半分の電力で1.2テラバイト/秒の帯域を提供します。

Groq 3 LPXラックは、256推論プロセッサと128ギガバイトのオンチップSRAMを搭載し、兆パラメータモデルの長い文脈(百万トークン規模)に対する低遅延の要求を狙います。BlueField-4 STXストレージラックは、Nvidiaが「コンテキストメモリ」と呼ぶものを提供します—長く、複数ステップのタスクを推論する際に生成される巨大なキー・バリュキャッシュの高速ストレージです。そしてSpectrum-6 SPX Ethernetラックが、共封入型の光学素子を搭載して全体を結びつけ、従来のトランシーバより5倍の光学電力効率を実現します。

なぜNvidiaは自律的AIエージェントに未来を賭け、それに合わせて自社のスタックを再構築しているのか

月曜日の発表を一つの物語に結びつける戦略的ロジックは、AI業界が閾値を越えつつあるというNvidiaの確信だ。プロンプトに応じて返答して止まるチャットボットの時代は終わりつつあり、Huangが「エージェント型AI」と呼ぶものへ移行する:何時間も日単位で推論し、ソフトウェアを書いて実行し、外部ツールを呼び出し、継続的に改善するシステム。

これは単なるブランド訓練ではない。計算インフラストラクチャを設計する方法における実質的なアーキテクチャ転換を意味する。チャットボットのクエリはGPU時間のミリ秒程度を消費するかもしれない。薬剤発見パイプラインを統括したり、複雑なコードベースをデバッグするエージェント型システムは継続的に動作する可能性があり、コードを実行するCPUサイクル、推論するGPUサイクル、そして数千の中間ステップにわたる文脈を維持するための巨大なストレージを消費する。これは、より速いチップだけでなく、計算、メモリ、ストレージ、ネットワーキングの根本的に異なるバランスを求める。

Nvidia addressed this with the launch of its エージェントツールキット、which includes OpenShell, a new open-source runtime that enforces security and privacy guardrails for autonomous agents. The enterprise adoption list is remarkable: Adobe, Atlassian, Box, Cadence, Cisco, CrowdStrike, Dassault Systèmes, IQVIA, Red Hat, Salesforce, SAP, ServiceNow, Siemens and Synopsys are all integrating the toolkit into their platforms. Nvidia also launched NemoClaw, an open-source stack that lets users install its Nemotron models and OpenShell runtime in a single command to run secure, always-on AI assistants on everything from RTX laptops to DGX Station supercomputers.

The company separately announced Dynamo 1.0, open-source software it describes as the first 『operating system』 for AI inference at factory scale. Dynamo orchestrates GPU and memory resources across clusters and has already been adopted by AWS, Azure, Google Cloud, Oracle, Cursor, Perplexity, PayPal and Pinterest. Nvidia says it boosted Blackwell inference performance by up to 7x in recent benchmarks.

The Nemotron coalition and Nvidia’s play to shape the open-source AI landscape

If Vera Rubin represents Nvidia's hardware ambition, the Nemotron Coalition represents its software ambition. Announced Monday, the coalition is a global collaboration of AI labs that will jointly develop open frontier models trained on Nvidia's DGX Cloud. The inaugural members — Black Forest Labs, Cursor, LangChain, Mistral AI, Perplexity, Reflection AI, Sarvam and Thinking Machines Lab, the startup led by former OpenAI executive Mira Murati — will contribute data, evaluation frameworks and domain expertise.

The first model will be co-developed by Mistral AI and Nvidia and will underpin the upcoming Nemotron 4 family. 「Open models are the lifeblood of innovation and the engine of global participation in the AI revolution,」 Huang said.

Nvidia also expanded its own open model portfolio significantly. Nemotron 3 Ultra delivers what the company calls frontier-level intelligence with 5x throughput efficiency on Blackwell. Nemotron 3 Omni integrates audio, vision and language understanding. Nemotron 3 VoiceChat supports real-time, simultaneous conversations. And the company previewed GR00T N2, a next-generation robot foundation model that it says helps robots succeed at new tasks in new environments more than twice as often as leading alternatives, currently ranking first on the MolmoSpaces and RoboArena benchmarks.

The open-model push serves a dual purpose. It cultivates the developer ecosystem that drives demand for Nvidia hardware, and it positions Nvidia as a neutral platform provider rather than a competitor to the AI labs building on its chips — a delicate balancing act that grows more complex as Nvidia's own models grow more capable.

From operating rooms to orbit: how Vera Rubin's reach extends far beyond the data center

月曜日の発表の垂直的な広がりは、ほとんど混乱させるほどだった。ロシュは、米国と欧州のハイブリッドクラウドおよびオンプレミス環境で3,500台を超える Blackwell GPUs を展開していることを明らかにした。これは製薬業界で発表された最大級のGPU導入規模である。同社はこのインフラを生物学的基盤モデル、創薬、製造施設のデジタルツインの作成に活用しており、ノースカロライナ州の新しいGLP-1施設を含む。ロシュは、ゲネンテックの対象となる小分子プログラムのほぼ90%が現在AIを統合しており、がん治療分子の1つは設計が従来より25%速く、バックアップ候補は従来なら2年以上かかるところを7か月で提供された。

自動運転車分野では、BYDGeelyIsuzuNissan は、Nvidiaの Drive Hyperion プラットフォーム上で Level 4準備の車両を開発している。NvidiaとUberは提携を拡大し、2028年までに4大陸の28都市で自動運転車を展開する計画を発表。まず2027年の上半期にロサンゼルスとサンフランシスコから開始する。同社は Alpamayo 1.5 を紹介した。自動運転の推論モデルで、すでに100,000以上の自動車開発者にダウンロードされている。そして Nvidia Halos OS は、生産グレードの自律性のために ASIL D 認証の基盤に基づいて構築された安全アーキテクチャである。

Nvidiaは、Open-Hを核とする医療ロボティクス向けの最初の領域特化型物理AIプラットフォームを発表した。Open-Hは世界最大の医療ロボティクスデータセットで、手術ビデオが700時間以上含まれている。CMR Surgical、Johnson & Johnson MedTech、Medtronic などが採用している。

そして宇宙の話題へ。Vera Rubin Space Module は、H100 GPU と比較して軌道推論用のAI計算を最大で25倍提供する。Aetherflux、Axiom Space、Kepler Communications、Planet Labs、Starcloud がそれを基盤として開発を進めている。 「Space computing, the final frontier, has arrived,」と黄氏は語り、舞台の照明の下で宝石商がダイヤモンドを回すかのように、じっくりと回すその一言は、別の幹部の発言であれば同情の眼差しを引くかもしれないが、世界のAIワークロードの大半を同社のチップが動かしているCEOの言葉としては、受け止め方が異なる。

デスクサイドのスーパーコンピュータとNvidiaの企業向けハードウェアへの静かな推進

兆パラメータ級モデルと軌道データセンターの華やかな光景の中、Nvidiaは静かながらも有意義な一歩を踏み出した。GB300 Grace Blackwell Ultra Desktop Superchipを搭載したデスクサイド型システム「DGX Station」を発表し、748ギガバイトのコヒーレントメモリと最大20ペタフロップスのAI計算性能を提供する。このシステムはデスクから1兆パラメータまでのオープンモデルを動かすことができる。

SnowflakeMicrosoft ResearchCornellEPRISungkyunkwan University は初期ユーザーの一部です。DGX Station は規制産業向けのエアギャップ構成をサポートし、それを基に構築されたアプリケーションは再アーキテクチャを必要とせず、Nvidiaのデータセンターシステムへシームレスに移行できる。これは、ローカルの実験から大規模展開への自然な移行ルートを生み出す設計選択だ。

Nvidiaはまた、DGX Spark をアップデートし、最大4ユニットのクラスタリングをサポートして「デスクトップデータセンター」と呼ばれる線形性能スケーリングを提供する。両方のシステムにはNemoClawとNvidia AIソフトウェアスタックが事前構成で搭載され、Nemotron 3、Google Gemma 3、Qwen3、DeepSeek V3.2、Mistral Large 3 などのモデルをサポートします。

AdobeとNvidiaは別々に、Nvidiaの計算技術とライブラリを活用して次世代のFireflyモデルを開発する戦略的提携を発表した。Adobeはまた、Nvidia Omniverse 上のマーケティング向けのクラウドネイティブな3Dデジタルツインソリューションを構築し、Nemotron機能をAdobe Acrobatに統合する。この提携は、Photoshop、Premiere Pro、Frame.io、Adobe Experience Platform などのクリエイティブツールをカバーする。

知性を生み出す工場を作る:NvidiaのAIインフラストラクチャ設計図

おそらくNvidiaが産業の行き先を最も物語っている指標は、Vera Rubin DSX AI Factory リファレンスデザインである — これはAIを生み出すように最適化された建物全体を構築するための設計図だ。リファレンスデザインは、計算、ネットワーキング、ストレージ、電力、冷却を統合して、Nvidiaが「ワットあたりのトークン」と呼ぶものを最大化するシステムを作る方法を示し、同時にOmniverse DSX Blueprintでこれらの施設のデジタルツインを建設前に作成する。

ソフトウェアスタックには、動的電力供給のためのDSX Max-Q が含まれており、Nvidiaによれば固定電力データセンター内のAIインフラを30%増やすことができる。DSX Flex はAIファクトリーを電力網サービスに接続して、同社が推定する100ギガワットの未活用送電容量を解放する。エネルギー業界のリーダーであるEmerald AI、GE Vernova、Hitachi、Siemens Energy がこのアーキテクチャを利用している。NscaleとCaterpillarは、Vera Rubinリファレンスデザインを用いてウェストバージニア州で世界最大級のAI工場の1つを建設している。

業界パートナーの CadenceDassault SystèmesEatonJacobsSchneider ElectricSiemensPTCSwitchTrane Technologies そして Vertiv は、シミュレーション対応資産を提供し、彼らのプラットフォームを統合している。CoreWeave は Nvidia の DSX Air を使用して、物理的納入前にクラウド上でAIファクトリの運用リハーサルを実行している。

「AIの時代には、知性トークンが新しい通貨であり、AI工場がそれを生み出すインフラである」と黄氏は語った。それは、トークンを通貨として、工場をミントとみなすという形の表現であり、新興の経済秩序におけるNvidiaの立ち位置をいかに考えているかを示すものだ。

What Nvidia's grand vision gets right — and what remains unproven

月曜日の発表の規模と一貫性は、実際に印象的だ。半導体業界の他社はもちろん、技術系企業としても、カスタムシリコン、システム設計、ネットワーキング、ストレージ、推論ソフトウェア、オープンモデル、エージェントフレームワーク、安全ランタイム、シミュレーションプラットフォーム、デジタルツイン基盤、薬剤発見から自動運転、軌道計算に至る垂直アプリケーションを横断する統合スタックを提示できる企業は他にない。

しかし、規模と一貫性は必然性と同じではない。 Vera Rubin の性能主張は劇的だが、独立したベンチマークによってはほとんど検証されていない。プラットフォーム全体を支えるエージェントAI仮説—自律的で長時間動作するAIエージェントが支配的な計算ワークロードになるという考え方—は、まだ十分には形になっていない未来への賭けである。そして、モデル、ソフトウェア、リファレンスアーキテクチャの提供者としてのNvidiaの役割が拡大していることは、スタックの多くの層を1つのサプライヤに過度に依存し続けることを、ハードウェア顧客がどれだけ長く快適に感じるかという疑問を投げかける。

競合他社は現状に留まっていない。 AMDはデータセンターGPU性能のギャップを縮め続けている。GoogleのTPUは世界有数のAIトレーニングを支えている。AmazonのTrainiumチップはAWS内で人気を集めている。そして、AIインフラストラクチャのさまざまな要素に取り組むスタートアップの増加も見られる。

それらの誰もAnthropicとOpenAIのCEOの賛同を得てGTCの月曜日に登場したわけではなかった。誰も7つの新しいチップを同時に全面生産として発表していない。そして、次に来るものについてこれほど包括的なビジョンを提示した者もいなかった。

GTCごとに繰り返される場面がある。黄氏はトレードマークの革ジャンを着て、宝石商がダイヤモンドを掲げるかのようにチップを掲げ、舞台の照明の下でゆっくりと回す。それはショーの一部であり、説教の一部でもある。しかし、信者は増え続け、チップはますます速くなっており、支払い額はますます大きくなっている。Nvidiaが史上最高のインフラを築いているのか、それとも最も利益を上げるインフラを築いているだけなのかは、結局のところ差のない区別かもしれない。