NvidiaのDGX Stationはクラウドを使わずに一兆パラメータ級のAIモデルを実行するデスクトップ型のスーパコンピュータ

VentureBeat / 2026/3/17

📰 ニュースDeveloper Stack & InfrastructureTools & Practical UsageIndustry & Market MovesModels & Research

要点

  • NvidiaはGTCカンファレンスでDGX Stationを発表しました。クラウドを使わずに一兆パラメータ級のAIモデルを実行できるデスクサイド型のスーパコンピュータです。
  • このシステムは、748GBの統一メモリと20ペタフロップの計算性能を提供します。GB300 Grace Blackwell Ultra Desktop Superchipを核とし、72コアのGrace CPUとBlackwell Ultra GPUをNVLink-C2Cで1.8 TB/sの帯域で接続しています。
  • このアーキテクチャは、CPUとGPU間のデータの往来を最小限に抑える単一で統一されたメモリプールを提供し、大規模なモデルをローカルにロードして実行できるようにします。
  • オンプレミスの机上AI処理を可能にすることで、NVIDIAはDGX Stationを、データセンターインフラを要する状況と、企業がデータ・エージェント・IPをローカルに保持したいという要望の間にある業界の緊張を解消する解として位置づけ、壁のコンセントに差し込むだけで使用できる六桁の価格帯のマシンとして紹介しています。

Nvidia は月曜日に、クラウドを使わず最大1兆パラメータのAIモデルを動かせるほどの机の横に置けるデスクサイドのスーパーコンピュータを発表しました。機械は DGX Station と呼ばれ、モニターの横に置かれる筐体に 748 ギガバイトのコヒーレントメモリと 20 ペタフロップの計算能力を詰め込み、オリジナルのMac Proがクリエイティブ専門家にワークステーションを見限らせたのと同様、個人向けコンピューティング製品として最も重要なものになるかもしれません。

その年次の GTCカンファレンス がサンノゼで行われた発表は、AI業界が根本的な緊張に直面している瞬間に位置します。世界で最も強力なモデルは巨大なデータセンター基盤を必要としますが、それらのモデル上で開発を進める開発者や企業は、データ、エージェント、知的財産をローカルに保ちたいとますます望んでいます。DGX StationはNvidiaの答え — AIの最前線と一人のエンジニアの机との距離を縮める、六桁規模のマシンです。

What 20 petaflops on your desktop actually means

DGX Station は、新しい GB300 Grace Blackwell Ultra Desktop Superchip を核にしており、72コアの Grace CPUとBlackwell Ultra GPUを Nvidia の NVLink-C2C インターコネクトで結合しています。そのリンクは両プロセッサ間で毎秒 1.8 テラバイトのコヒーレント帯域幅を提供します — PCIe Gen 6 の7倍の速度で、CPU と GPU は単一のシームレスなメモリプールを共有し、デスクトップAI作業を通常妨げるボトルネックを排除します。

20ペタフロップ — 20京の演算/秒 — は、十年も経たないうちにこのマシンを世界のトップスパコンの仲間入りさせただろう。オーク・リッジ国立研究所のSummitシステムは、2018年に世界No.1の座を獲得していたが、その性能は概ねその10倍に達する一方、2つのバスケットボールコート分の部屋を占有していた。Nvidiaはその能力の意味のある一部を、壁のコンセントに差し込める形でパッケージ化している。

748 GBの統合メモリは、間違いなく最も重要な数値と言える。1兆パラメータのモデルは、実行するにはメモリへ完全に読み込む必要がある巨大なニューラルネットワークだ。十分なメモリがなければ、処理速度のいくら高くても意味はない — モデル自体が収まらなくなる。DGX Stationはこのハードルをクリアし、CPUとGPUのメモリプール間でデータを移動する際のレイテンシのペナルティを排除する、コヒーレントなアーキテクチャを備えている。

Always-on agents need always-on hardware

Nvidiaは、次のAIの段階として「推論・計画・コード作成・タスクの継続的実行を行う自律エージェント」を想定して、DGX Stationを明確に設計した。単なるプロンプトに応じるシステムではありません。GTC 2026 の主要な発表のすべてはこの「エージェントAI」仮説を補強し、DGX Stationはそれらエージェントを構築・実行する場となるのです。

重要な組み合わせは NemoClaw で、新しいオープンソースのスタックとしてNvidiaが月曜日に発表したものです。NemoClawはNvidiaの Nemotron オープンモデルと OpenShell をまとめており、OpenShell は自律エージェントのポリシーベースのセキュリティ、ネットワーク、プライバシーのガードレールを強制するセキュアなランタイムです。全体のスタックを1つのコマンドでインストールします。Nvidiaの創業者兼CEOのJensen Huangは、この組み合わせを明確に表現し、OpenClaw — NemoClawがサポートするより広いエージェントプラットフォーム — を「個人用AIのOS」と呼び、MacとWindowsと直接比較しました。

論点は単純です。クラウドのインスタンスは需要に応じて起動と停止を繰り返しますが、常時稼働するエージェントには持続的な計算資源、持続的なメモリ、持続的な状態が必要です。机の下にある機械は、24時間365日、ローカルデータとローカルモデルをセキュリティサンドボックス内で動かす構成で、このワークロードに対して、他人のデータセンターにあるレンタルGPUよりもアーキテクチャ的に適しています。DGX Stationは、個人の開発者向けのスーパーコンピュータとしても、チームの共有計算ノードとしても機能し、データが建物を出ることのない機密・規制環境向けのエアギャップ構成にも対応します。

From desk prototype to data center production in zero rewrites

DGX Stationの設計で最も巧妙な点の1つは、Nvidiaが“アーキテクチャの連続性”と呼ぶものです。機械上で作成されたアプリケーションは、コードを1行も再設計することなく、同社のGB300 NVL72データセンターシステムへシームレスに移行します — 72-GPUラック、ハイパースケールAIファクトリー向けに設計されたものです。Nvidiaは垂直統合型のパイプラインを提供しています:机上でプロトタイプを作成し、準備が整えばクラウドへ拡張します。

これは、現在のAI開発における最大の隠れたコストは計算ではなく、異なるハードウェア構成にコードを書き直すエンジニアリングの時間である、という点を意味します。ローカルのGPUクラスターで微調整されたモデルは、異なるメモリアーキテクチャ、ネットワークスタック、ソフトウェア依存関係を備えたクラウド基盤へデプロイする際に、しばしば大幅な再作業を要します。DGX Stationは、その摩擦を解消します。NVIDIA AIソフトウェアスタックは、DGX Sparkから Vera Rubin NVL72 に至るまでの系統を含み、NVIDIAのインフラストラクチャのあらゆる階層を動かします。

NvidiaはStationの小型の兄弟機であるDGX Sparkを、新しいクラスタリング機能で拡張しました。最大4台のSparkを統一システムとしてほぼ線形の性能スケーリングで動作させることができる—ラック構成やITチケット不要で会議テーブルにも収まる「デスクトップデータセンター」です。中規模モデルの微調整や小規模エージェントの開発が必要なチームには、クラスタ化されたSparksはStationのコストの一部で信頼できる部門AIプラットフォームを提供します。

The early buyers reveal where the market is heading

DGX Stationの初期顧客リストは、AIが実験から日常的な運用ツールへと最も迅速に移行している産業を示しています。Snowflakeはこのシステムを使って、オープンソースのArcticトレーニングフレームワークをローカルでテストしています。EPRI(Electric Power Research Institute)は、AI搭載の天気予報を進めて電力網の信頼性を高めています。Medivisは視覚と言語モデルを外科手術のワークフローに組み込んでいます。Microsoft Researchとコーネル大学は、スケールでのハンズオンAIトレーニングのためにシステムを展開しています。

システムは現在注文可能で、今後数か月の間にASUS、Dell Technologies、GIGABYTE、MSI、Supermicroから出荷される予定で、HPは年内に追加入荷します。Nvidiaは価格を公表していませんが、GB300の部品と同社の過去のDGX価格設定から、六桁の投資が見込まれます — ワークステーション基準では高価ですが、スケールでの1兆パラメータ推論をクラウドGPUで実行するコストと比べれば非常に安価です。

サポートされるモデルのリストは、AIエコシステムがいかにオープンになっているかを物語っています。開発者はOpenAIの gpt-oss-120b、Googleの Gemma 3Qwen3Mistral Large 3DeepSeek V3.2、そして Nvidia の Nemotron モデルなどを実行・微調整できます。DGX Stationは設計上、モデルに依存しない—四半期ごとにモデルへの忠誠が変わる業界のハードウェア・スイスです。

Nvidia's real strategy: own every layer of the AI stack, from orbit to office

DGX Station は空振りで登場したわけではない。これは、Nvidiaがあらゆる物理スケールでAI計算を供給するという野心を総合的に示すGTC 2026の発表群の1つです。

最高位では、Vera Rubinプラットフォームを発表しました。正式生産の7つの新チップを核とし、72基の次世代Rubin GPUを統合する Vera Rubin NVL72ラックを中心に、現行のBlackwell世代と比較してワットあたりの推論スループットを最大10倍とします。88個のカスタムOlympusコアを備える Vera CPU は、エージェント的ワークロードがますます要求するオーケストレーション層を狙います。遠方の前線として、軌道データセンター向けの Vera Rubin Space Module を発表し、H100と比べて宇宙ベース推論のAI計算を25倍提供します。

宇宙とオフィスの間で、NvidiaはAdobeによる創造AI、BYDや日産のようなレベル4自動運転車を目指す自動車メーカー、Mistral AIと7つの研究所とのOpen Frontierモデル開発の連携、そして Dynamo 1.0、AWS、Azure、Google Cloud などにすでに採用されているオープンソース推論OSである Dynamo 1.0、Cursor や Perplexity を含むAIネイティブ企業の名簿が挙げられています。

パターンは紛れもなく明らかだ。Nvidiaは、あらゆるAIワークロードのための計算プラットフォーム — ハードウェア、ソフトウェア、そしてモデル — を、あらゆる場所で提供したいと考えている。DGX Stationは、クラウドと個人をつなぐ隙間を埋めるピースだ。

クラウドは死んでいないが、本格的なAI作業をめぐる独占は終わりつつある

過去数年間、AIにおけるデフォルトの前提は、真剣な作業にはクラウドGPUインスタンスが必要だということだった — NvidiaのハードウェアをAWSAzure、または Google Cloudからレンタルすること。 このモデルは機能するが、実際のコストが伴う。データ送出料金、レイテンシ、第三者のインフラへ機密データを送ることによるセキュリティ露出、そして他者のコンピューターをレンタルすることに伴う根本的な制御喪失。

DGX Stationはクラウドを殺すものではない — Nvidiaのデータセンター事業はデスクトップの収益をはるかに上回り、成長を加速させている。だが、それは重要で拡大しているワークロードのカテゴリーに対して、信頼できるローカルの代替手段を提供する。ゼロからフロンティアモデルを訓練するには、倉庫規模のGPUが何千も必要だ。機密データ上で兆パラメータのオープンモデルをファインチューニングする?機密文書を処理する内部エージェントの推論を実行する?クラウド支出を確定する前のプロトタイピングをする?机の上のマシンは、合理的な選択肢のように見え始める。

この製品の戦略的な優雅さは、Nvidiaのアドレス可能市場を個人用AIインフラストラクチャへ拡張しつつ、クラウド事業を強化することにある。なぜなら、ローカルで構築されたすべてはNvidiaのデータセンター・プラットフォームへと拡張されるよう設計されているからだ。クラウド デスクであり、Nvidiaはその両方を提供する。

すべての机の上にスーパーコンピューターがあり、その上で眠らないエージェント

すべての机の上にスーパーコンピューターがあり、その上で眠らないエージェントもいる。

PC革命を定義づけたスローガンは「すべての机の上に、そしてすべての家庭にコンピューターを」というものだった。40年余りを経て、Nvidiaはその前提を居心地の悪いエスカレーションとともに更新している。DGX Stationは、国立研究所で運用されていた本格的なスーパーコンピューティングパワーをキーボードの横に置き、NemoClawはそれを上に置く自律型AIエージェントを置き、所有者が眠っている間もコードを書き、ツールを呼び出し、タスクを完了させる。

その未来が興奮させるものか、不安を覚えるものかは、視点次第だ。しかし、議論の余地があることは一つもない。フロンティアAIを構築・運用・所有するのに必要なインフラは、サーバールームから机の引き出しへと移動した。そして地球上のほぼすべての本格的なAIチップを販売している企業は、机の引き出しも販売することを確実にした。

NvidiaのDGX Stationはクラウドを使わずに一兆パラメータ級のAIモデルを実行するデスクトップ型のスーパコンピュータ | AI Navigate