広告

Nvidia支援のThinkLabs AI、電力網の逼迫拡大に取り組むため2,800万ドルを調達

VentureBeat / 2026/3/31

📰 ニュースDeveloper Stack & InfrastructureSignals & Early TrendsIndustry & Market Moves

要点

  • NvidiaがNVenturesを通じて支援するThinkLabs AIが、Energy Impact Partners主導のシリーズAで2,800万ドルをクローズし、電力網の挙動をシミュレートするAIモデルの構築を進めている。
  • 同社は、物理に基づいた(physics-informed)リアルタイムのパワーフロー・モデリングに注力し、エンジニアリング調査を数週間または数か月から数分へと短縮することを目指している。データセンターやEV(電気自動車)の充電など、大規模な新規負荷が電力網に与える影響の分析も含まれる。
  • 今回の資金調達は、需要圧力の高まりを反映している。米国の電力需要は2030年までに25%成長すると見込まれており、従来の送電網計画やエンジニアリング用ツールを圧倒してしまう状況だ。
  • このラウンドには、Edison International(Southern California Edisonの親会社)やその他の既存投資家に加え、北米の投資家所有型ユーティリティ(社名非公表)の参加があった。
  • ThinkLabsは、自社のアプローチを、ソフトウェア/コンテンツ生成へのAI投資から、物理インフラの信頼性と計画に直接影響を与えるアプリケーションへと向かう、より広範な投資の転換の一部だと位置付けている。

ThinkLabs AIは、本日、電力系統の挙動をシミュレートする人工知能モデルを構築するスタートアップであることを発表し、Energy Impact Partners (EIP)が主導する2,800万ドルのシリーズA資金調達ラウンドをクローズしたと明らかにしました。EIPは世界でも有数のエネルギートランジション(エネルギー移行)分野への投資会社です。さらに、Nvidiaのベンチャーキャピタル部門であるNVenturesと、Edison InternationalSouthern California Edisonの親会社)もこのラウンドに参加しました。

今回の資金調達は、AIをソフトウェアやコンテンツ生成だけでなく、現代生活を支える物理インフラに適用する競争が大きく激化していることを示すものです。ほとんどのAI投資の見出しが、大規模言語モデルや生成ツールに集中している一方で、ThinkLabsは別の、そしておそらくより重大な用途を追求しています。それは、物理を踏まえたAIを用いて電力網の挙動をリアルタイムでモデル化し、これまで数週間または数か月かかっていた工学系の検討を、分単位に圧縮することです。

「私たちは送電網(グリッド)に死ぬほど集中しています」と、ThinkLabsのCEOであるJosh Wongは、発表に先立つ独占インタビューでVentureBeatに語りました。「私たちはAIモデルを使ってグリッドをモデル化します。具体的には、送配電に関するパワーフロー(電力潮流)関連のモデリングです。大規模負荷の系統連系――たとえばデータセンターや電気自動車の充電――を計算し、それがグリッドに与える影響を理解できます。」

このラウンドには、GE VernovaPowerhouse VenturesActive Impact InvestmentsBlackhorn VenturesAmplify Capitalなど、復帰投資家による厚い参加があったほか、社名の明かされていない北米の大手「投資家所有型ユーティリティ」も参加しました。Wongによれば、同社は当初2,800万ドル未満の調達を目指していましたが、戦略パートナーからの強い需要によって、ラウンドはより大きい金額に引き上げられました。

「これは明らかに過剰申込みでした」とWongは述べました。「一緒に成長していくのにふさわしいエコシステム・パートナーと、ふさわしい資本パートナーを私たちは惹きつけることができました。それで2,800万ドルに着地したんです。」

急増する電力需要が“グリッドのレガシー計画ツール”を壊している理由

今回の資金調達のタイミングに偶然はありません。コンサルティング会社ICF Internationalによると、米国の電力需要は2030年までに25%成長する見込みです。背景には主に、AIデータセンター、電化された交通手段、そして発電・車両の電化に向けたより広範な取り組みがあります。この急増がぶつかっているのは、根本的に異なる種類の需要を前提に何十年も前に設計されたグリッドであり、ユーティリティ各社はその対応に追われています。

中核となる問題は計算能力(コンピュテーション・キャパシティ)の問題です。ユーティリティが、「大規模データセンターが特定の変電所に接続したらどうなるのか」や、「住宅地でEV充電器のクラスタが稼働し始めたらどうなるのか」を把握する必要がある場合、エンジニアはパワーフローのシミュレーションを実行しなければなりません。これは、電気がネットワーク内をどのように流れるかをモデル化する複雑な計算です。これらの検討は伝統的に、SiemensGESchneider Electricのような企業のレガシーなソフトウェアツールに依存しており、単一のシナリオを完了させるだけでも数週間または数か月かかることがあります。

ThinkLabsのアプローチは、このボトルネックを、物理を踏まえたAIモデルで置き換えます。すなわち、同社は同じ工学系のシミュレーターから学習する一方で、その後は桁違いに高速に実行できます。同社によれば、同社のプラットフォームは、1か月かかるグリッドの調査を3分未満に圧縮でき、10分で1,000万件のシナリオを実行できるとのことです。また、グリッドのパワーフロー計算において99.7%以上の精度を維持します。

Wongは、ThinkLabsが行っていることと、公共の議論を支配する生成AIモデルとの違いを明確に切り分けています。「私たちは、滅茶苦茶に“ハルシネーション”を起こしているわけではありません」と彼は述べました。「ここで扱っているのは工学計算です。流体力学の計算、あるいはF1カー、航空宇宙、気候モデルのようなものに本当に近いと言えるでしょう。私たちは、既存の物理ベースの工学モデルという“正解となる情報源”を持っています。」

その“正解となる情報源”は重要です。ThinkLabsは、第一原理の物理シミュレータの出力――ユーティリティがすでに信頼しているのと同じツール――を使ってAIを学習させ、その後、そのモデルをシミュレータで検証します。Wongによれば、その結果は、単に高速なだけでなく、完全に説明可能で監査可能なAIシステムです。これは、誤った計算が停電や物理インフラの損傷につながり得るという点で、この業界にとって不可欠な要件です。

ThinkLabsの3相パワーフロー解析は、ほかのすべてのグリッドAIスタートアップとどう違うか

送配電網(グリッド)運用におけるAIの競争環境は、この2年で混み合ってきており、スタートアップも既存企業も、ユーティリティの業務フローに機械学習を適用しようとしのぎを削っています。しかしWongは、ThinkLabsが多くの競合他社とは根本的に異なる立ち位置にあると主張しています。

「私たちの知る限り、実際にAIネイティブなグリッド・シミュレーション解析をやっているのは私たちだけです」と彼は言いました。「他社はAIを予測、負荷の分解、あるいはローカルなエネルギー管理に使っているかもしれませんが、根本的には“パワーフローを計算しているわけではない”んです。」

ThinkLabsが行うのは、完全な3相のACパワーフロー解析です。つまり、電力網上のあらゆるノードとバスを調べて、実効(有効)電力と無効電力のレベル、回線の流れ、電圧を特定します。これは現在のユーティリティのエンジニアが、レガシーなツールを使って実施しているのと同じタイプの解析です。しかしThinkLabsは、それらのツールでは到底かなわない速度とスケールでそれを提供できます。

この違いが重要なのは、ユーティリティが(数十億ドル規模の)資本投資の意思決定を、まさにこうした種類の検討結果に基づいて行うからです。仮にパワーフロー解析によって、提案されるデータセンターの接続が送電線に過負荷をかけることが示された場合、ユーティリティは非常に大きな費用をかけて新たなインフラを建設する必要が出るかもしれません。しかし、その解析が代替案――蓄電池の配置、負荷の柔軟性のスケジューリング、あるいはトポロジー最適化――も示せるなら、ユーティリティはそれらの資本支出を回避したり、先送りできる可能性があります。

「多くのユーティリティでは、既存ツールが基本的に“問題点の一覧”を示してくれるのですが、解決策は試行錯誤でしか扱えません」とWongは説明しました。「AIなら、強化学習を使ってより創造的な解決策を生み出せるだけでなく、各解決策のメリット・デメリットを非常に効果的に重み付けすることもできます。」

NVIDIA、Edison、そしてMicrosoftとのThinkLabsの戦略的な関係の中身

このラウンドにおけるNVenturesの存在――Nvidiaのベンチャー部門は多くの投資を行わない――は、資本を超えて広がる、より深い戦略的関係があることを示しています。Wongは、ThinkLabsがエネルギーおよびユーティリティ側の領域で、Nvidiaのエコシステムの中で広く活動しており、GPUを加速する計算にCUDAを活用していること、そしてNvidiaのEarth-2気候シミュレーション・プラットフォームをThinkLabsの確率的な予測およびリスク調整済みの分析パイプラインに統合していることを確認しました。

"私たちは、OT側――すなわち運用技術側――のための唯一の高強度GPUワークロードだと、あるユーティリティが言及していました。計画と運用を担う領域です," とWong氏は述べた。彼はさらに、ThinkLabsが追加のユーティリティ活用ユースケースについてNvidiaのOmniverseチームとも協議していると付け加えたが、これらの取り組みはまだ初期段階だという。

Edison Internationalの参画には、別種の戦略的な重みがある。2026年1月、ThinkLabsは同社プラットフォームの現実世界での能力を示した、Southern California Edison(SCE)――Edison Internationalの電力会社子会社――との共同の成果を公表した。当時ロサンゼルス・タイムズが報じたとおり、その協業では、ThinkLabsのAIが回路ごとの学習を「数分」で実行でき、100以上の回路にまたがる1年分の毎時の電力フローデータを「3分未満」で処理でき、さらに「90秒未満」でブリッジング解決策の提言を含むエンジニアリングレポートを作成できることが示された。これは、従来は専任のエンジニアが平均30〜35日を要していた作業だ。

今回の発表において、Edison InternationalのSergej Mahnovski(戦略・技術・イノベーション担当マネジング・ディレクター)は、その切迫感を次のように強調した。"私たちは、電力グリッドに対する高まる要求に応えるため、レガシーの計画ツールやプロセスから迅速に移行しなければなりません。能力を変革するには、AIネイティブな新しいソリューションが必要です。"

ThinkLabsはまたMicrosoftとも緊密に連携しており、2025年半ばには、Wong氏に加えてSouthern Company、EPRI、そしてMicrosoft自身のエネルギーチームの代表者が登壇するウェビナーをMicrosoftが主催した。SCEとの協業はMicrosoft Azure AI Foundryをベースに構築されており、ThinkLabsを、多くの大手ユーティリティがすでに利用しているクラウド基盤の中に位置づけている。

トロント・ハイドロから自律型グリッドのスタートアップへとつながった20年のキャリアパス

Wong氏の略歴は、このまさにその瞬間のために意図的に準備されてきたかのように読める。彼はユーティリティ業界で20年以上を過ごし、キャリアのスタートはトロント・ハイドロだった。その後、2012年にOpus One Solutionsを創業した――スマートグリッド・ソフトウェア企業で、同社を8カ国にまたがる顧客にサービス提供する規模へと成長させ、100人超の従業員を擁するまでにした。そして、2022年に同社をGEへ売却した。これは、先にBetaKitが報じている。

買収後、Wong氏はGE Vernova(のちにそうなった組織)に加わり、同社の「未来のグリッド」のロードマップを策定するよう求められた。そこで彼が打ち立てた見立て――グリッドは経済成長・電化・国家安全保障のための中核的ボトルネックであり、解決策はAIによって駆動される自律型グリッドのオーケストレーションである――は、ThinkLabsの知的基盤となった。

"私は、電化する必要があるという仮説をまとめていたんですが、実際のところ注目の中心はグリッドなんです," とWong氏は語った。"結論としては、より高い自律性へと進めていく必要があります。自律走行車の話を私たちはよくしますが、私は、自律型グリッドのほうがはるかに差し迫った優先事項だと主張したいです。"

ThinkLabsはGE Vernovaの社内でインキュベートされ、2024年4月に独立企業としてスピンアウトされた。これは、当時GlobeNewswireが報じたとおり、Powerhouse VenturesとActive Impact Investmentsが共同でリードする500万ドルのシードラウンドと時期を同じくしている。GE Vernovaは引き続き株主であり戦略的パートナーでもある。Wong氏は唯一の創業者だ。

チーム構成は、同社が二つの顔を持つことを反映している。"私たちのチームの半分は電力システムの博士号保有者ですが、もう半分はAIの人たちです――他業界で、ハイパースケール可能なAIインフラ基盤やMLOpsを見てきた人たちですね," とWong氏は述べた。"実際に、その2つを本当に融合させています。"

ThinkLabsが1四半期でユーティリティ顧客基盤を2倍にした方法

ユーティリティは、世界でもっとも保守的なテクノロジー購入者の一つとして知られている。調達サイクルは何年にも延び得るし、導入を遅らせる規制面での監督も多層に存在する。その現実はWong氏も認めつつ、しかし多くの観測者が考えているよりも景色(状況)は速く変化しているのだと語る。

"営業サイクルが本当に加速しているのを感じています," と彼は言った。"それでも長期にわたる場合もあり、どのユーティリティで、案件がどれくらいの規模かにもよりますが、従来の1〜2年から、最短で2〜3カ月までに営業サイクルが短縮していくのを、実際に目の当たりにしてきました。"

商業面では、Wong氏は具体的な売上高の数字は共有しなかったが、着実な進展を示唆する複数のデータポイントを提示した。ThinkLabsは計画と運用のためのAIネイティブなグリッドシミュレーションで10社超のユーティリティと取り組んでいると彼は述べ、同社は2026年の第1四半期だけで顧客アカウントを2倍にしたという。

"つまり1社か2社ではなく、10社超のユーティリティと取り組んでいます。" とWong氏は述べた。"このAラウンドの前から、物事のペースがかなり上がっていました。"

同社が主に狙うのは、投資家所有型のユーティリティとシステムオペレーター――すなわちグリッドを保有し運用する組織――だ。ただしWong氏は、AIがこれまでエンジニアリングリソース不足で高度な分析を実行できなかった小規模ユーティリティにも、グリッドシミュレーション能力を民主化し始めているとも指摘した。

Wong氏によれば、資金の主な用途は、製品をエンタープライズ品質へと前進させ、プラットフォームが対応するユースケースの幅を拡大することに向けられる。同社は、個々のユーティリティのアカウント内での「土地獲得して拡張する(land-and-expand)」という大きな機会を見込んでいる。つまり、小さな地域をモデル化するところから、単一の顧客のもとで、州全体、あるいは複数州にまたがる領域に対してAIモデルを学習させる方向へと広げていく。

EIPがリード投資家として関与していることは、この市場では特に意味が大きい。同社は北米の投資家所有型ユーティリティの半数以上に支えられており、ThinkLabsが到達しようとしている顧客のエグゼクティブ層へ、直接つながる回線を得られるからだ。プレスリリースの中で、EIPのマネジング・パートナーであるSameer Reddy氏は次のように述べている。"ユーティリティは、業界がこれまで見たことのないタイムラインで容量を追加することを求められており、リスクはエネルギー分野をはるかに超えています。"

99.7%の精度が、重要なグリッド基盤にとって実際に意味するもの

重要インフラにAIを適用することについての議論は、必ず失敗パターンという問いに突き当たる。チャットボットで幻覚(ハルシネーション)が起これば、恥ずかしいことになる。一方で、グリッドの電力フロー分析での誤算は、設備の損傷や広範な停電につながり得る。

Wong氏はこの点に真正面から答えた。99.7%の精度という数値は、大量の計画系スタディにおける平均だと彼は説明した。具体的には、3〜10年の期間にわたり、複数の感度シナリオを使って、(年の)毎時に相当する8,760時間の分析を見込んだものだ。計画目的の観点では、この水準の精度は十分であるだけでなく、実際には従来手法が現場で提供できる水準を上回る可能性さえある、と彼は主張する。

"真実の情報源を見ると、実際に最大の制約要因は、これらのAIモデルの精度ではなくデータ品質です。" と彼は言った。"従来のエンジニアリング分析を持ち込み、テレメトリで実際に突き合わせます――メータリングデータやSCADAデータなど。そう考えると、AIはシナリオに基づく仮説的な計画分析ではなく、実測に基づくデータドリブンだからこそ、はるかに正確だと私は主張します。"

より重要度の高いリアルタイム用途では、ThinkLabsはWongが「ハイブリッドモデル」と呼んだものを投入します。これはAIによる計算と、従来型の物理ベースのシミュレーションを組み合わせる手法です。最も厳格なユースケースでは、AIが計算負荷の約99%を引き受けたうえで、最終的な検証のために物理ベースのエンジンへ引き渡します。Wongはこれを、シミュレーションを「ウォームスタート」するためにAIを使う技術だと説明しました。

同社はさらにモデルドリフトを監視し、厳格な学習の境界(トレーニングの範囲)を維持しています。「ここで私たちは、ChatGPTがインターネットを学習するようなことはしていません」とWongは述べました。「私たちは、系統(グリッド)の条件の可能性について学習しています。そして、学習していない条件、または学習の境界の外側にある条件を見つけた場合でも、特定の解空間に対してオンデマンドで学習を常に実行できます。」

ThinkLabsはなぜ、データセンターのブームが鈍化しても価値提案が生き残ると言えるのか

ThinkLabs、そしてより広くグリッド(電力網)に焦点を当てたAIに対する強気の見方は、今後10年で電力需要が劇的に伸びるという前提に大きく依存しています。しかし一部のアナリストは、そうした予測が過大なのではないかと疑問を呈し始めています。特に、AIへの投資サイクルが冷え込み、データセンターの新設が減速する場合にはそうです。

Wongは、自社の価値提案はそのシナリオに対しても強いと主張しました。仮に大幅な負荷増加が起きなくても、電力会社は根本的な近代化の課題に直面すると彼は言います。1990年代から2000年代にかけて使われてきたツールやプロセスを運用しており、それらのツールを使いこなせる人材が、驚くべき速さで退職しているのです。

「人材の更新が大きな要因です」と彼は言いました。「これらのAIツールは、単にツールそのものを近代化するだけでなく、文化や変革も近代化し、次世代の人材の定着(リテンション)にとっても主要な拠り所になります。」

また彼は、負荷増加の予測とは独立して存在する推進力として、エネルギーの手頃な価格(アフォーダビリティ)を挙げました。電力会社が、最悪の決定論的シナリオに基づいて計画し続ける――つまり、あらゆる想定されうる事態に対応できるだけのインフラを作る――なら、消費者の料金は管理不能になります。Wongによれば、AIを活用した確率論的解析は、最も強気な需要見通しが現実になろうとなかろうと、電力会社がより賢く、より費用対効果の高い意思決定を行うことを可能にします。

「このAIの大部分は、処理(ワークロード)を可能にするだけではありません。知的にどう行動するか、という点にも関わっているのです。最悪ケースから時系列分析へ、決定論から確率論や確率的(ストキャスティック)解析へ、そして解決策を導くところまでです」と彼は言いました。

Wongは、ThinkLabsが取り組もうとしていることの“単純さ”と“野心”の両方を捉えるたとえで、より広い機会を語ります。何十年もの間、電力会社業界のグリッド制約へのデフォルトの対応は、より広い高速道路を建設することに等しいものでした――配線を増やし、銅を増やし、鋼を増やす、という考え方です。ThinkLabsは、その代わりに交通を迂回させるナビゲーションシステムになりたいのだ、としています。

「以前は、私たちが運転するときは、いつも馴染みのあるもの――つまり“大きな道路”で走っていました」と彼は言いました。「しかしAIなら、より効果的なルートで走るために交通の流れを最適化できます。この場合、配線、柔軟性、バッテリー、そして運用上の意思決定の組み合わせになるかもしれません。」

ThinkLabsが、電力網が要求する規模で、その構想を実現できるかどうかは、いまのところ未解決の問いです。ただ、グリッド向けソフトウェアの企業を20年にわたって構築し販売してきたWongは、段階的な改善という発想をしていません。彼は、電力網のための基盤となるAIインフラが構築される“狭い窓”(何十年ではなく数年単位)を見ており、それを作る側が、世代をまたいでエネルギーシステムを形作ると考えています。

「私は本当に、グリッドに向けた今後2年のAI開発が、その後の何十年にも起こり得ることを決めると信じています」とWongは述べました。「本当に、今ここで起きています。」

つまり、電力網には“コパイロット(副操縦士)”がつきつつある、ということです。もはや、電力会社が自社の最も重要なエンジニアリング判断にAIを任せるのかどうかが問題ではありません。問題は、AIを任せないままでいられるコストを、どれだけ速く払えなくなるかです。

広告