ここ20年ほどの大半において、比較的安定した目標に最適化された企業データセンターの設計が行われてきました。ラックの消費電力はだいたい5〜15キロワットの範囲に収まっていました。空冷──コールドアイル/ホットアイル、床上げ、パンチング(またはパーフォレーテッド)タイル──で十分でした。パワー密度はゆっくりと上がっていきましたが、サーバーの世代が変わっても運用プレイブックは概ね同じままでした。こうした前提となるベースラインは、約18か月で崩れました。
原因はよく知られています。高密度GPUクラスタを前提にしたAIの学習および推論ワークロードです。NVIDIA H100サーバーは、それ自体で約10キロワットを消費します。H100またはH200をフル搭載したラックは60kWを超え得ます。新しいBlackwellベースのシステムでは、個々のラックは130kW超まで押し上げられます。空冷ではこの量の熱を移送できません。仮にできたとしても、必要な騒音レベルや気流速度によって床(インフラ)として成立しなくなります。液体冷却は、かつてはニッチな最適化でしたが、いまや構造的な必須条件になりました。
2026年にインフラの意思決定を担っているのであれば──建設するのか、購入するのか、あるいはモデルをどこに展開するかを選ぶだけなのかにかかわらず──その影響は、はっきり認識しておく価値があります。
なぜ空冷が限界を迎えたのかの「数」
空気は、摂氏1度あたりリットルごとに約1ジュールの熱を運びます。この数値は物理によって決まっています。1キロワットの熱を取り除くには、特定の温度差(デルタ)で、特定の体積の空気を移動させる必要があります。ラックのパワー密度が30〜40kWを超えてくると、必要になる空気量は物理的に現実的でなくなります。つまり、必要な風量(エアフロー)は、パーフォレーテッドタイル、サーバーファン、CRACユニットが持続的に供給できる範囲を超えてしまいます。
それに対して水は、摂氏1度あたりリットルごとに約4,180ジュール運びます。単位体積あたりの熱容量としては、約4,000倍です。冷却媒体のループが空気の一部の体積しか動かさなくても、桁違いの熱を除去できます。これは単なるマーケティング主張ではなく、あらゆる高密度AI展開が、何らかの形の液体冷却へ収束する理由そのものです。
重要なのは3つの液体冷却アプローチ
すべての液体冷却が同じではなく、資本コストと運用の複雑さの両面で違いが重要になります。
• リアドア・ヒートエクスチェンジャ(リアドア式熱交換器)。ラックの背面に液体で冷却するコイルがあり、排出される高温空気を冷やします。サーバーのハードウェア自体は変わりません──ファンがこれまで通り筐体内に空気を送り、ただし空気は部屋に戻る前に冷却されます。より高い密度への最も摩擦の少ない道(通常はラックあたり30〜50kWを支え)であり、既存ホールにGPU容量を追加する施設における橋渡しの解決策としてよく採用されます。
• ダイレクト・トゥ・チップ(Direct-to-chip)液体冷却。冷却材の配管を、CPUやGPUに取り付けられたコールドプレートへ直接接続します。熱い部品から熱を液体ループへ移し、空気を介さずに済みます。ラックあたり80〜130kW超の密度を支えることができ、主要なハイパースケーラーやAIクラウドプロバイダが、最新世代のアクセラレータ向けに展開している方式でもあります。
• イマージョン(没入)冷却。サーバー全体を誘電性流体に浸し、すべてのコンポーネントから熱を直接吸収させます。熱性能は非常に優れていますが、それには専用設計のハードウェア、完全に異なる施設側の配管・給排水設備、そして多くの企業チームが経験していない運用手法が必要です。現在、この方式はニッチな選択肢です──適切な文脈では非常に強力ですが、多くの場面では高価です。
2026年の企業向けAIワークロードの大半では、ダイレクト・トゥ・チップ液体冷却がアーキテクチャ上のデフォルトです。リアドア・エクスチェンジャは過渡的な手段として使われます。没入冷却も検討されていますが、ハイパースケール事業者以外で大規模に導入されることはまれです。
マーケティングよりも認証が重要
どのデータセンター運営者も、液体冷却に対応していると主張できます。しかし、現在のAIハードウェアが要求する密度のために施設を実際に構築し、認証まで取得しているところははるかに少数です。把握しておくべき参照点は、NVIDIAの「DGX-Ready Data Center」プログラムです。これは、NVIDIAの参照アーキテクチャを運用するための、特定の電力・冷却・運用の基準に沿って施設を監査します。
インドで、ラックあたり130kW超を支える液体冷却のDGX-Ready運用について認証を保有している運営者はSifyです。ここが重要なのは、高密度のGPUラックに対応すると「言っている」施設と、独立してそれが「できる」と認証された施設の違いは、通常、数週間でサーマルスロットリングに当たる展開になるか、実際に動く展開になるかの違いになるからです。AIインフラは、施設側の手抜きに対して容赦がありません。
インドでAIワークロードをどこにホストするかを検討している企業にとっては、従来の稼働率や接続性といった懸念を超えて、基盤となるデータセンターのインフラ選択に今や結果が及びます。冷却アーキテクチャ、電力供給、そして100kW超のラックを継続的に支える能力は、3年前には存在していなかった技術要件であり、生産(本番)のAI業務にとっては譲れない要件です。
電力供給は二次的な問題(ただし同じくらい難しい)
AIインフラの議論では冷却が注目を集めます。だが電力供給も、同等に難しい問題であり、ほとんど語られません。130kWを引き込むラックには、ほとんどの企業データセンターがこれまで想定して作られてこなかった電源引き込みおよび開閉設備(スイッチギア)構成が必要になります。
130kWが実際に何を意味するか考えてみてください。従来の5kWラックは、単一の30A 208V回路で給電されるかもしれません。130kWラックは、電流容量としてはおよそ26倍が必要です。これは「より太いケーブルにする」という話ではなく、変電設備(サブステーション)の容量、バスウェイの設計、PDUアーキテクチャ、そしてそれら全体を支える冗長化戦略の問題です。ホールの電力密度を2倍にするには、通常、床から上の電気配分を作り直す(アーキテクトし直す)必要があります。
また送電網側の問題もあります。GPUの大幅な増強を行う施設は、地元の電力会社に対して測定可能な需要を生み出します。インドの複数の主要都市では、追加の送電網容量のリードタイムが、AI導入をどれだけ迅速にスケールできるかを左右する制約になっています。先を見て計画した施設──電力容量の確保、変電所の建設、電力会社との長期の商業契約への署名──は、今日新たなAIテナントを受け入れて吸収できるところです。そうでない施設は、18〜24か月のリードタイムを提示しています。
サステナビリティは「任意」では済まなくなる
AIインフラは消費エネルギーが非常に大きいため、サステナビリティはコーポレートの責任という「項目」から、運用と規制の問題へと移っていきます。衝突している3つの力があります。
• 顧客の要求。企業のAI購入者は、調達の一部として、インフラ提供者からカーボン開示データをますます求めるようになっています。
• 規制の圧力。インドのエネルギー強度目標やBEEの建築コードは厳格化しており、データセンターは明確に重点カテゴリとして名指しされています。
• 経済的な重力(競争上の力)。再生可能エネルギーは、いくつかのインドの州では高負荷テナントにとって送電網電力よりも安くなっています。PPA(電力購入契約)を持つ運営者は、静かに構造的なコスト優位を構築しています。
これらが合わさった結果、「グリーンなデータセンター設計」は、単なるマーケティング上の訴求ではなく、競争力のパラメータになってきました。PUEが実測で1.4未満、オンサイトでの再生可能エネルギー統合、水効率の高い冷却、そして認証されたサステナビリティの実績を持つ施設が、真剣に企業テナントとして検討される場合の、事実上の唯一の選択肢になりつつあります。直近5年間サステナビリティを無視していた施設は、いま高コストでの改修を進めています。
ロードマップの早い段階でグリーン・データセンターを組み込んだ運営者──この取り組みをインドで大規模に進める一例として www.sifytechnologies.com をご覧ください──は、2023年ほど最近でない時期には存在しなかった、AIインフラの会話における測定可能な優位性を持っています。
インフラチームが計画すべきこと
あなたのチームがAIワークロードの計画を始めているのなら──学習、ファインチューニング、推論、またはその組み合わせのいずれであっても──今四半期に検討しておく価値がある実務的な問いは次の通りです。
返却形式: {"translated": "翻訳されたHTML"}• 計画されているハードウェアに、実際に必要なラック密度はどの程度でしょうか?ベンダーの仕様から数値を取得し、推測で済ませないでください。
• 現在の施設(またはプロバイダーの施設)は、その密度を本当にサポートしていますか?「液冷に対応」はあまりに曖昧です。具体的な認定ラック密度と、使用している冷却アーキテクチャを確認してください。
• 電力供給のストーリーはどうなっていますか?ラックあたり130 kWを熱的にサポートできる一方で、電気的には40 kWで頭打ちになる施設は、実際にはラックあたり130 kWをサポートしていません。
• 障害モードは何ですか?液冷は、空冷にはなかった「故障の次元」を追加します。施設の運用成熟度――漏えい検知、冗長ループ、対応手順――が、評価の一部になります。
• サステナビリティのプロファイルはどのようになっていますか?PUE、再生可能エネルギーの比率、水使用量。これらはもはや任意の質問ではありません。
空冷から液冷への移行は、既存のデータセンター設計へのちょっとした調整ではありません。これは世代をまたぐアーキテクチャ上の変更であり、それを適切に扱える施設は、次の10年間のAIインフラを受け入れることになります。中途半端な改修で済まそうとする施設は、この10年の残りの期間、テナントが移転した理由を説明し続けることになるでしょう。
Sifyについて:この記事は、インドにおけるエンタープライズAIインフラの導入で観測されるパターンに基づいています。Sify(NASDAQ: SIFY)はインド最大の統合ICTソリューションおよびサービス提供企業であり、インドで最初の商用コロケーション提供事業者でもあります。Sifyはムンバイ、チェンナイ、ノイダ、バンガロール、ハイデラバード、コルカタにまたがる、同時に保守可能なデータセンターを6拠点運営しており、その中には、ラックあたり130+ kWの液冷向けとしてインド初のNVIDIA認定DGX-Ready施設が含まれます。同社の施設では、世界の4大ハイパースケーラーのうち3社をホスティングしており、BFSI、製造、小売、ヘルスケア、製薬、デジタルネイティブの各分野で10,000社以上のエンタープライズにサービスを提供しています。GartnerのMagic Quadrant for Managed Network Services Globalで評価され、IDC MarketScape for Managed Cloud Services APeJで認知されています。1999年からNASDAQ上場。
