GoogleとIntelがAIインフラ分野での提携を深める

TechCrunch / 2026/4/10

📰 ニュースDeveloper Stack & InfrastructureSignals & Early TrendsIndustry & Market Moves

要点

  • GoogleとIntelは、拡大した複数年の提携を発表した。この提携では、Google CloudがAI、クラウド、推論(インファレンス)のワークロードに向けて、Xeon 6を含むIntel Xeonプロセッサを引き続き使用する。
  • この取り決めにより、データセンター業務をCPUから加速・オフロードするための、カスタム・インフラ処理ユニット(IPU)の共同開発も深まる。これは、2021年に始まった協業を土台としている。
  • IntelとGoogleは、IPUの取り組みは、最新のAIシステムにおける性能、効率、柔軟性を高めることを目的とした、カスタムASIC(特定用途向け集積回路)ベースの設計に重点を置くと述べている。
  • 記事では、AIモデルのトレーニングではGPUが中核となる一方で、推論の実行や、より広範なAIインフラのスタックにおいては、CPUおよび関連アクセラレータが依然として重要であると指摘している。
  • 価格の詳細は開示されておらず、拡大は、CPUをめぐる世界的な需要の継続と不足を背景に位置づけられている。

GoogleとIntelは木曜日、Google CloudがIntelのAIインフラを引き続き活用し、プロセッサーを共同でさらに開発していくための、拡大された複数年にわたる提携を発表しました。

Google Cloudは、AI、クラウド、および推論(インファレンス)のタスクに、IntelのXeonプロセッサー(Intelの最新のXeon 6チップを含む)を使用します。同社は数十年にわたり、IntelのさまざまなXeonプロセッサーを使ってきました。

さらに両社は、カスタム基盤となる処理ユニット(IPU)の共同開発も拡大します。これらは、CPUから処理を引き受けることで、データセンターのタスクを高速化し、管理するのに役立ちます。

2021年に始まったこのチップ開発の提携は、カスタムのASICベースのIPUに注力する方針です。

Intelは、今回の取引に関する価格情報を共有しないとしました。

この拡大は、業界がCPUを求めていることを背景にしています。GPUはAIモデルの開発・学習に使われますが、CPUはAIモデルを実行するうえで、また一般的なAIインフラの中核として重要です。

Intelの最高経営責任者(CEO)リップ=ブー・タン(Lip-Bu Tan)氏は企業のプレスリリースで、「AIは、インフラの構築とスケールの方法を変えています」「AIのスケーリングには、アクセラレータ以上のものが必要です。バランスの取れたシステムが必要です。現代のAIワークロードが求めるパフォーマンス、効率、柔軟性を提供するうえで、CPUとIPUは中核となります」と述べました。

近数カ月のあいだに、チップ不足が拡大する中で、より多くの企業がCPUに注目を移しています。

ソフトバンクが所有するArm Holdingsが、Armの最初の自社製チップであるArm AGI CPUを最近発表しました。同社が自ら生産した最初のチップとなりますが、世界的なCPU不足の中での発表です。