AI 競争の本質はチップ調達
2024〜2026 年の AI 競争は、モデルの賢さだけでなく 「どれだけ計算資源を集められるか」で勝負が決まる時代に。OpenAI、Anthropic、Google、Meta、xAI が数千億円規模で GPU/TPU を確保し、各国政府もソブリン AI 戦略で数兆円規模の投資を進めています。
NVIDIA の支配と挑戦者
NVIDIA H100 / H200 / B100 / B200 / GB200
2024 年に Hopper 世代(H100)、後継の H200、2025 年から Blackwell 世代(B100、B200、GB200)が量産化。1 枚 4〜5 万ドル、Blackwell GPU 1 ラック(GB200 NVL72)で 1 億円規模。供給逼迫で 6〜12 ヶ月待ちが常態化。
Google TPU v5/v6
Google 内製の TPU は v5p(2023)、v5e(2024)、v6 Trillium(2025)、v6e(2026)と更新。Gemini 系の学習・推論を支える。外部にも GCP 経由で提供(Anthropic、各種スタートアップ)。
AWS Trainium / Inferentia
AWS の AI 専用チップ。Trainium2(2024)は学習用、Inferentia2 は推論用。Anthropic への投資と引き換えに大規模採用。コストパフォーマンスで H100 の 30〜50% 安を狙う。




