AI Navigate

Meta、自社製AIチップ「MTIA」新モデルと次世代データセンター構想発表

ITmedia AI+ / 2026/3/12

📰 ニュースDeveloper Stack & InfrastructureIndustry & Market MovesModels & Research

要点

  • Metaが自社AIチップ「MTIA」の新モデルを発表し、同社のAI処理能力を自社設計で強化する方針を示した。
  • 同時に次世代データセンター構想を公表し、MTIAの高性能・省電力設計を前提としたインフラ戦略を提示した。
  • 外部GPUへの依存を減らしエコシステムを自社中心に拡張する狙いが読み取れるが、実装時期や具体的性能は未公開。
  • AIチップ市場の競争に影響を与える動きとして、NVIDIA等既存勢力へのプレッシャーとなり得るとの見方が出ている。

 米Metaは3月11日(現地時間)、同社の大規模データセンター拡張計画の一環として、AI関連タスク向けにカスタマイズされた4つの自社製カスタムチップを公開した。自社設計のAIアクセラレータ「MTIA」(Meta Training and Inference Accelerator)シリーズの最新世代となる「MTIA 300」「MTIA 400」「MTIA 450」「MTIA 500」だ。

 mtia 1 MTIA 400(画像:Meta)

 最初のモデルであるMTIA 300は、すでに同社サービスでのランキングや推奨モデルのトレーニング用として実運用環境で稼働している。続く3つのチップについても導入を計画しており、「MTIA 400」はテストを終えてデータセンターへの導入準備を進めているほか、MTIA 450は2027年初頭に、MTIA 500は2027年中に展開していく計画だ。

 自社製チップの開発を強力に推進する狙いは、急速に進化するAIモデルに対する迅速な適応とコスト効率の最適化にあるという。汎用的なAIチップは主に大規模な生成AIの事前学習向けに作られているが、Metaは実際のサービス提供で需要が急増する推論処理を第一に最適化するアプローチをとっている。

 モジュール式のチップ設計を採用することで、通常1~2年かかる開発サイクルを約6カ月へと大幅に短縮し、ハードウェアの最新技術を継続的かつ高速に自社のインフラへ統合し、コストを抑えることを可能にしているという。

 チップ開発と並行して、サービス向けの膨大な計算処理を支えるための自社データセンターの大規模拡張も進めている。 直近では、既存のデータセンター5棟を換装して転用することで、12万9000基の米NVIDIA製「H100」GPUを搭載した巨大な単一AIクラスタを数カ月で構築した。現在は、複数のデータセンターや隣接施設にまたがる1ギガワット(GW)規模の次世代クラスタ「Prometheus」を建設中だ。さらに、2028年以降には最大5GWの能力を持つ超巨大クラスタ「Hyperion」を稼働させる計画も明らかにしている

 datacenter Metaの自社データセンター(画像:Meta)

関連記事

関連リンク

Copyright © ITmedia, Inc. All Rights Reserved.

続きを読むには、コメントの利用規約に同意し「アイティメディアID」および「ITmedia NEWS アンカーデスクマガジン」の登録が必要です