AIに傾倒したArmのCEO、同社を“マネーマシン”に変える謎の製品群を予告

The Register / 2026/3/25

💬 オピニオンSignals & Early TrendsIndustry & Market Moves

要点

  • ArmのCEOが、同社を「マネーマシン」に変える可能性のある“謎の製品”群について、AIを軸にした方針を示唆した。
  • 記事では、ArmがIPライセンスの制約からの脱却(従来の収益モデルや契約形態の見直し)を進める流れが強調されている。
  • Armの次の収益機会や提供価値が、AI需要の伸びと連動して拡大するシナリオが示されている。
  • ただし具体的な製品内容・時期・技術詳細は明らかにされておらず、発表の続報待ちの状況となっている。

AIにハマったArmのCEO、マネーマシンに変える謎の製品を予告

IPライセンスの足かせからの脱却

2026年 3月 24日(火) // 23:21 UTC

ArmのCEO、ルネ・ハースは、火曜日に同社が年次カンファレンスで行った基調講演で、AIの“コールドドリンク”を一気に飲み干すような勢いで、将来の製品をほのめかした。ハースは、その製品によってブリティッシュの半導体デザイナーである同社の総到達可能市場(TAM)が、10年末までに10兆ドルに達すると考えているという。

では、その製品とは何か?それは明日の話だ。火曜日のイベントは、Armが新たに発表したAGI CPU製品に焦点が当てられており、同社がエンド顧客に直接販売できるようにすることで、同社をIPライセンスモデルの足かせから解放するとしている。

ハースは、エージェント型AIが同社のデータセンター事業を加速させることに大きな期待を寄せている。10年末までに、同社のデータセンター向けシリコンは、そのデータセンターTAMを1000億ドル超にまで跳ね上げると予測している。

火曜日の基調講演である、Arm Everywhereカンファレンスにおいて、CEOは同社が現在、年間約30億ドルのロイヤルティが見込めるデータセンター市場に対して競争していると述べた。

「エージェント型AIで起きていることを見ると、CPUの成長があります。電力効率の高いCPUがデータセンターにもたらす恩恵を考えると、これは将来の私たちにとって約1000億ドルのTAMを意味すると考えています」,と彼は語った。

これらの数値は、大部分が、OpenClawのようなエージェント型フレームワークが、CPUコア需要を4倍にすると見込んでいることに基づいている。

OpenClawのようなツールを動かすモデルは、引き続き専用アクセラレータ上で実行される一方で、それらの上に構築されるエージェント型システムはそうではない。

これらのエージェントはCPUコアで動作し、モデルが生成するコードを実行してタスクを自動化するために、追加のCPU計算リソースとメモリリソースが必要になる。

返却形式: {"translated": "翻訳されたHTML"}

これらのエージェント同士の相互作用は、必ずしも単一のユーザーの要求に結びつくものではありません。あるエージェントが他のエージェントを呼び出してタスクを完了することもあるため、これらのワークロードが生み出すトラフィック量は大幅に増加すると見込まれます。

Armはすでにここで果たすべき役割を持っていました。その命令セット・アーキテクチャは、AmazonのGravitonのようなCPUで使われています。

また、自社のIPを採用する際の参入障壁をさらに下げるため、Armは2023年にコンピュート・サブシステムを導入しました。これは、カスタムチップを作るために必要な材料がすべて揃った、いわば「シェイク&ベイク(混ぜて焼く)」式のプロセッサの設計図です。Microsoftのような顧客はレシピを微調整し、好みのファウンドリに送り、そこで焼いてもらうことができます。

しかし、Microsoftや他のハイパースケーラーのような専門知識やリソースを持つ組織は多くありません。そのためArmは火曜日、Armブランドを冠する最初のデータセンター向けシリコンを発表しました。同社はMetaとともにAGI CPUを手がけ、両者はそれをエージェント型システムを動かすために構築しました。

私たちは火曜日に136コア版の部品を詳しく見ましたが、要するに、Armは「1000億ドル(約1000億米ドル)」規模の池において単なる小魚以上になりたいのであれば、かなり大量にそれらを出荷する必要があるということです。

Haas(の取り組み)にクレジットすべき点として、ArmのAGI CPUは発売時点ですでにMeta、OpenAI、SAP、Cloudflare、SK Telecomといったビッグネームの顧客を獲得しています。いずれも、今年後半にチップが到着次第、導入する意向です。

とはいえ、AI企業はシリコン供給元を1社だけに固定することはほとんどありません。本年初めに私たちが報じたとおり、Metaはエージェント型システムの電源として、NvidiaのGrace CPUも大量に投入しています。さらに、その拠点の規模を拡大して、Nvidiaの新しいVera CPUも含める計画です。ソーシャル・ネットワーキングの巨大企業はまた、Broadcomからカスタムチップを購入 しています。とはいえ、Armは自社のライセンス設計を組み込んだあらゆるチップから収益を得るため、どちらに転んでも勝ちです。

さらに、部屋の中の青と赤のゾウ――つまりIntelとAMD――の存在もあります。両社はx86-64アーキテクチャをめぐって、20年以上にわたる継続性の恩恵を受けています。

CPU市場はこれまでになく競争が激しくなっています。それでもArmのクラウドAI担当EVP(Mohamed Awad)は、同社のAGI CPUは、余計な機能を捨てた合理化されたコアによって、また同時マルチスレッディングに依存しない設計によって、エージェント型タスクにより適していると主張しています。同氏によれば、この設計はより決定論的なスケーリングを可能にします。

その設計が本当に利点なのかどうかは議論の余地があります。VeraではNvidiaが同時マルチスレッディング(SMT)を採用した一方、Intelは近い将来のDiamond Rapids世代の部品で一度その技術を見送ったあと、Coral Rapids Xeonでハイパースレッディングを復活させる計画をすでに発表しています。

一方でAMDの最新Epycプロセッサは、今年後半に登場予定で最大256コアを提供します。SMTをオフにしても、それでもArmの新チップのコア数のほぼ2倍です。

競争力を維持するため、Armは早くも来年には新しいチップを投入する予定で、3世代目のAGI CPUはすでに開発中です。®

詳細:

ニュースのタレコミ

ニュースを送る