Cirrascale Cloud Servicesは本日、Google Cloud とのパートナーシップを拡大し、Geminiモデルのオンプレミス提供を、Google Distributed Cloudを通じて実現すると発表しました。これにより、完全にプライベートで切断(ディスコネクト)されたアプライアンスとして、Googleの最先端AIモデルを提供する最初のネオクラウド提供事業者になります。ラスベガスで開催されるGoogle Cloud Next 2026に合わせた今回の発表は、生成AIブームの始まり以来、規制産業を悩ませ続けてきた頑固な課題に対処するものです。それは「データを手放すことなく、最前線(フロンティア級)のAIモデルにアクセスする方法」です。
本提供は、GeminiをDellが製造し、Googleが認証したハードウェアアプライアンスに組み込み、8基のNvidia GPUを搭載し、機密コンピューティングの保護で包み込んでいます。企業や政府機関は、Cirrascaleのデータセンター内、または自社の施設内にシステムを導入でき、インターネットおよびGoogleのクラウド基盤から完全に切断できます。製品は即座にプレビュー段階に入り、一般提供(GA)は6月または7月が見込まれます。
発表に先立ってVentureBeatとの独占インタビューで、Cirrascale Cloud ServicesのCEOであるDave Driggers氏は、導入を「“パートナーシップの次のステップ”」および「“彼らが持っている最も重要なモデル、つまりGeminiを提供できること”」だと説明しました。彼は顧客が受け取るものについて、強い口調で明言しました。「これは“フル機能のGemini”です。『縮小版』ではありません」とDriggers氏はVentureBeatに語りました。「欠けているものは何もなく、プライベートなシナリオで利用可能なので、データが安全であること、入力が安全であること、出力が安全であることを彼らに保証できます。」
今回の動きは、企業向けAI市場における大きな変化を示しています。最も能力の高いモデルが、ハイパースケーラーのデータセンターから顧客自身のラックへ移行しているのです。過去10年を規定してきたクラウドコンピューティングの常識からの逆転ともいえます。
銀行や政府をAIの主戦場から遠ざけ続けた「不可能なトレードオフ」
長年にわたり、金融サービス、ヘルスケア、国防、政府といった組織は二者択一の状況に直面してきました。すなわち、公的クラウドのAPI経由で最も強力なAIモデルにアクセスするために機密データを第三者のインフラにさらすか、あるいは、自社でホストできるより能力の低いオープンソースモデルに甘んじるかです。Cirrascaleの新しい提供は、そのトレードオフそのものを完全に解消しようとしています。
Driggers氏は、信頼問題が段階的に悪化していく様子を説明しました。まず企業は、自社のプロプライエタリデータをハイパースケーラーに渡すことを懸念しました。次に、より深い認識が生まれました。 「“彼らは気づき始めたんです。ユーザーが何かを入力すると、それはプライベート情報として手放している。そして出力もまたプライベートだ”」とDriggers氏はVentureBeatに語りました。 「そして、その後ハイパースケーラーがこう言うんです。“あなたのプロンプトとレスポンスは、私たちのものです。質問に答えるには、それが必要なんです。”」完全にプライベートなAI需要が無視できなくなったのは、まさにその瞬間だったと彼は主張しました。
Google Distributed CloudのようにGoogleがすでに提供しているオンプレミス向けクラウド拡張とは異なり、Cirrascaleの導入では実際のモデル(重みを含む)がGoogleのインフラの外に置かれます。 「Googleはこのハードウェアを所有していません。ハードウェアを所有するのは私たちです、もしくは顧客です」とDriggers氏は言いました。「それは完全にGoogleの外側にあります。」
Driggers氏は、この提供と競合が提供するものとの違いを、はっきりと切り分けました。Microsoft AzureのOpenAIモデルを用いたオンプレミス導入およびAWS Outpostsについて尋ねられたとき、彼は率直にこう述べました。「それらは大きく違います。これは、彼らのクラウドの外でオンプレにデプロイされる“実際のモデル”です。縮小版ではありません。実際のモデルです。」
プラグを抜けばモデルが消える:機密コンピューティングがGoogleの“王冠の宝石”を守る仕組み
導入の技術的な土台は、GoogleとCirrascaleの双方がセキュリティの問題をどれほど真剣に扱っているかを明らかにしています。Geminiモデルは、永続ストレージではなく、揮発性メモリの中に完全に収まっています。 「電源を切ったら、モデルは消えます」とDriggers氏は説明しました。ユーザーセッションは、セッション終了時に自動的に消えるキャッシュを通じて動作します。 「会社のユーザーが入力したものは、当該セッションが終われば消えます。保存することはできますが、デフォルトでは消えます」と彼は言いました。
おそらく最も印象的なセキュリティ機能は、誰かがアプライアンスに改ざんを試みたときに何が起きるかです。Driggers氏は、実質的に機械を使用不能にする仕組みを説明しました。「機密コンピューティングに反することをすれば、それで終わりです。機械がオフになるだけでなく、つまりモデルが消えるだけでなく、“機密コンピューティングを侵害した”という目印が実際に入ります。その機械は私たちのところに戻すか、Dellに戻すか、Googleに戻さなければなりません。」彼はこのアプライアンスを、「何かが起きたら自分自身にタイムボムのような仕組みが働くもの」だと特徴づけました。
このレベルの保護は、Googleが、自社が制御できない環境にフラッグシップモデルの重みをリリースすることに抱えている不安を反映しています。アプライアンスは実質的に金庫のようなものです。モデルはその中で動きますが、誰も(顧客でさえ)重みを取り出したり検査したりすることはできません。機密コンピューティングのエンベロープにより、ハードウェアを物理的に所持しているだけでは、モデルの知的財産へのアクセスが許されません。
GoogleがGeminiの新しいバージョンをリリースするたびに、アプライアンスは再接続する必要がありますが、接続はごく短時間で、かつプライベートな経路を通じて行われます。「新しいモデルを読み込むには、Googleに接続する必要はあります。しかし、それはプライベート接続で行えます」とDriggers氏は述べました。機械が外部ネットワークに接続されることを絶対に許可できない、セキュリティ最優先の顧客向けには、Cirrascaleは物理的なスワップも提供します。「サーバーのプラグを抜いて、消去して、データはすべて消します。消えたことを保証します。そして新しいサーバーが現れて、モデルの新バージョンが入っている、というわけです。」
ウォール街から創薬ラボまで:エアギャップAIへの急増が加速
Driggers氏は、需要を押し上げる主なドライバーを3つ挙げました。信頼、セキュリティ、そして保証されたパフォーマンスです。金融サービス機関が最上位です。「彼らには規制上の問題があって、コントロールできないものを外部に出せません。どこで何が動くのかを決めるのは、彼ら自身でなければなりません。だからエアギャップが必要なんです」とDriggers氏は言いました。最小限の導入フットプリント—8基のGPUを備えた単一サーバー—により、Google自身のプライベート提供では実現できない形で製品が利用可能になります。GoogleのTPUベースのインフラでGeminiを動かすには、はるかに大きなコミットメントが必要だとDriggers氏は指摘しました。「Googleからプライベート[インスタンス]を欲しければ、彼らはより大きな“負担”を要求します。というのも、あなたのためにプライベートなものを作るには、Googleは巨大なフットプリントを必要とするからです。ここでは、単一のマシンまで落として実現できます。」
金融の分野を超えて、ドリガーズは創薬、医療データ、公的部門の研究、そして個人情報を扱うあらゆるビジネスを挙げた。さらに彼が指摘した、ますます重要性を増しているユースケースは「データ・ソブリンティ(データ主権)」だ。 「米国以外で事業を行っているあなたの会社では、そして今や、GCPが対応していない場所でもデータ主権の法律が整っているとしたらどうでしょう。データが持ち出せないこれらの小規模な国々では、私たちがプライベートなGeminiを提供できます。」
公的部門もまた、主要なターゲットの一つだ。サーラスケールは、同社が先行してGoogle Public SectorとGPAR(Google Public Sector Program for Accelerated Research)に関するパートナーシップを進めていたことの一環として、3月にGovernment Services部門を立ち上げた。このプログラムにより、高等教育機関や研究機関は、AlphaFold、AI Co-Scientist、Education向けGemini EnterpriseなどのAIツールにアクセスできる。今回の発表は、その関係を研究用ツールのレイヤーから、モデルそのものへと拡張するものだ。
性能保証は3つ目の柱だ。ドリガーズは、パブリックAPI経由で利用されるフロンティア・モデルは応答時間が一定しない――ミッションクリティカルなビジネスアプリケーションにとっては問題になる――と指摘した。プライベートな導入では、その変動を排除できる。サーラスケールはGeminiアプライアンスの上に運用管理ソフトウェアを重ね、管理者がユーザーを優先度付けしたり、ロール別にトークンを割り当てたり、コンテキストウィンドウのサイズを調整したり、複数のアプライアンスとリージョン間で負荷分散したりできるようにする。「主要なデータサイエンティストやプログラマーには、非常に大きなコンテキストウィンドウが必要で、特にたとえば9時から5時の時間帯は優先させたいかもしれません」とドリガーズは説明した。「しかしそれでも、残りの時間は、より幅広い人々にわたってGemini体験を共有したいのです。」また、24時間稼働し得るエージェント型AIワークロードは、オフピーク時間帯に未使用の処理能力を消費できる点で恩恵を受けるとも述べた。これは、パブリッククラウドの導入では簡単にサポートしにくいスケジューリングの柔軟性だ。
席(シート)ライセンス、トークン課金、そして食べ放題価格:企業の柔軟性に合わせて作られたモデル
価格モデルは、サーラスケールのより大きな理念――顧客がいる場所に寄り添うこと――を反映している。ドリガーズは、いくつかの利用形態を説明した。席ベースのライセンス(エンタープライズ版と標準版の両方あり)、トークン単位の課金、そしてアプライアンスごとの定額の「食べ放題」価格だ。最低のコミットは1台の専用サーバーで、どの構成でもアプライアンスは顧客間で共有されない。 「私たちは、顧客が慣れているやり方に合わせます」とドリガーズは述べた。「いま席ライセンスを使っているのであれば、私たちはその人たちのために席ライセンスを作ります。」
顧客はまた、Geminiをマネージドサービスとして利用し続けながら、ハードウェアを一括で購入することも選べる。この形態は、AIブームの初期からサーラスケールが提供してきたものだ。ドリガーズによるとOpenAIは2016年または2017年から顧客であり、その取引ではOpenAIが自社でGPUを購入し、サーラスケールは「それらのGPUを受け取り、当社のサーバーやストレージ、ネットワーキングに組み込み、そのうえでクラウドサービスとして提供したので、彼らは何も管理する必要がなかった」という。
この柔軟な保有モデルは、特に大学や政府資金で支えられる研究機関にとって重要性が高い。そこでは、多くの場合、設備投資(CapEx)と運営費(OPEX)、そして人員投資の「特定の組み合わせ」が求められるからだ。「政府の資金の多くは、CapEx、OPEX、そして雇用・人材育成の組み合わせを必要とします」とドリガーズは述べた。「だから私たちは、それにも対応できるようにしています。」
世界初の8-GPUサーバーを生んだネオクラウドの中身――そしてGoogleの最大級AIモデルがやってきた
サーラスケールの発表は、ネオクラウド市場の爆発的な成長期に届く――それはハイパースケーラーと従来のホスティング企業の間に位置する、専門性の高いAIクラウド提供者の層だ。市場は2026年に352.2億ドル規模になる見込みで、Mordor Intelligenceによれば年平均成長率は46.37%とされている。主要なネオクラウド提供者にはCoreWeave、Crusoe Cloud、Lambda、Nebius、Vultrが含まれ、これらの企業はAIや高性能計算向けのGPU-as-a-Serviceに特化している。
しかし、サーラスケールはこの伸び盛りのカテゴリーの中で、異なるニッチを占めている。CoreWeaveのような企業が主に大規模な生のGPU計算の提供に注力しているのに対し――CoreWeaveは5,560億ドルの受注残を誇る――サーラスケールは、オンデマンドの弾力的計算よりも、プライベートAI、マネージドサービス、より長期の取り組みを中心に打ち出してきた。ドリガーズは同社を「オンデマンドで使う場所ではない」のだが、「私たちが本当に競っているのは、オンプレミスでそれをやっている誰かとの対決です。より長期のワークロードを扱うことに焦点を当てた提供者だ」と説明した。
同社の歩みは、その主張を裏付けている。サーラスケールは、ルーツをハードウェア企業にたどる。同社はドリガーズが言うところの「2012年に、誰も『箱の中に8つのGPUが必要になることがある』とは考えていなかった時点で、世界初の8-GPUサーバーを設計した」ことから始まった。そして約8年前に純粋なクラウドサービスへと舵を切り、それ以降、Allen Institute for AIが含まれる顧客リストを築いてきた。2025年8月には、同機関が、米国立科学財団(National Science Foundation)とNvidiaの資金による1億5200万ドル規模のオープンAIイニシアチブのマネージドサービス提供者としてサーラスケールを指名した。さらに今月初め、サーラスケールはRafay SystemsおよびCiscoとの3者アライアンスを発表し、サーラスケールの推論プラットフォーム、RafayのGPUオーケストレーション、Ciscoのネットワーキングおよび計算用ハードウェアを組み合わせたエンドツーエンドのエンタープライズAIソリューションを提供するとした。
誰もが想像したより速く訪れるプライベートAIの時代
Geminiのパートナーシップは、これまでで最も注目度の高い動きであり、同時により広い業界の潮流にもつながっている。フロンティアAIをパブリッククラウドから出してプライベート基盤へ移す取り組みは、もはやニッチな要求ではない。業界アナリストは、2027年にはAIモデルの学習と推論の40%がパブリッククラウド環境の外で行われると予測している。この予測は、Googleが「自社が所有していない」ハードウェア上で、「自社が運用していない」データセンターでありつつも、サンディエゴの企業が管理する形で、自社の宝物級モデルの稼働を許すことの理由を説明する一助になる。別の選択肢――規制のある企業が、オープンソースモデルやMicrosoftのAzure OpenAI Serviceへデフォルトで流れていくのを見ること――は、どうやらより悪い結果になるようだ。
今回の発表は、Googleの競争上のポジションにも大きな意味を持つ。Microsoftは、Azure OpenAI ServiceとOpenAIとの深いパートナーシップを軸にエンタープライズAI戦略を組み立ててきた。一方、AWSはAmazon Bedrockへの投資に加え、Outpostsを通じた独自のオンプレミスソリューションにも取り組んでいる。Google Cloud Platformは依然として市場シェアで両社に後れを取っているものの、第4四半期のクラウド売上は前年同期比で48%増加した。Cirrascaleのようなパートナーを通じて第三者基盤上でGeminiを稼働可能にすることで、MicrosoftとAmazonがこれまで歴史的に優位を持ってきた領域――政府、金融、ヘルスケア――において、配布(提供)面の広がりがまさに広がる。サーラスケールにとっては、このパートナーシップは、ほとんどのネオクラウドがGPUの可用性と価格で競っている市場において、明確に差別化できるチャンスを意味している。
Driggersは2026年後半に急速な普及が起きると見込んでいる。「今年の終わりに向けて、とんでもないことになりそうだ」と彼は言った。「大手銀行は、こうしたことをようやく実行するだろう。確保できるからだ。世界規模で実施できる。世界中にラボを持つ大規模な研究機関も、こうした種類の取り組みを行うだろう。」彼は、ほかのフロンティアモデル提供事業者も近いうちに同様の提供を始めると予測し、Geminiが物語の終わりだとは考えていない。「私たちは、本当にエンタープライズが待ち望んでいたのは、Geminiだけでなく、あらゆる種類のプライベートAIだと考えている」とDriggersは語った。
それはおそらく、すべての中で最も示唆に富む一文だろう。3年間にわたり、AI革命は単純な取引によって定義されてきた。データをクラウドに送れば、知能(インテリジェンス)が返ってくる。Cirrascaleの賭け――そして次第にGoogleの賭けでもある――は、世界最大の顧客はもう、そうした条件を受け入れるのをやめたということだ。いま、地球上で最も強力なAIは、銀行の金庫室や大学の地下室、あるいはGoogleにデータセンターがない国の政府施設に置くことができる、単一の施錠されたボックスとして利用可能になっている。クラウドは、どうやらついに、ようやく現実の世界に降りてくる準備が整ったようだ。
