Azure Weekly: Fireworks AIがFoundryにオープンモデルをもたらし、GPT-5.4が出荷

Dev.to / 2026/3/12

📰 ニュースDeveloper Stack & InfrastructureTools & Practical UsageIndustry & Market Moves

要点

  • Microsoft AzureはFireworks AIをFoundryプラットフォームに統合し、DeepSeek V3.2、Kimi K2.5、OpenAIのgpt-oss-120b、MiniMax M2.5などのオープンAIモデルに対して高性能かつ低遅延の推論を可能にしました。
  • この統合により、ユーザーは自分の量子化済みまたはファインチューニング済みのモデルウェイトを持ち込み、Azureに組み込まれたエンタープライズグレードのガバナンス、課金、監視機能を利用して大規模に実行できます。
  • Fireworks AIは2つの展開モードをサポートしています。実験的かつ突発的なワークロード向けのサーバーレス(トークン単位課金)と、予測可能な安定パフォーマンス向けのProvisioned Throughput Unitsです。
  • またAzureは、エージェント的ワークフローとコンピュータ使用機能に対応したGPT-5.4の一般提供開始と、瞬時アクセス可能なスナップショットによるストレージオプションの改善を発表しました。
  • 重要な革新は、利用者を単一のAIモデルエコシステムに拘束しないMicrosoftのオープンモデルインフラ戦略にあり、開発者や企業に柔軟性と制御を重視しています。

Azureが示したオープンモデルインフラ戦略

今週、Microsoftは生産用AI戦略としてオープンモデルに明確に賭けました。Fireworks AI — 毎日13兆トークンを処理する企業 — は、Microsoft Foundry上に登場し、DeepSeek V3.2、Kimi K2.5、OpenAIのgpt-oss-120b、そして新たにリリースされたMiniMax M2.5向けの高性能推論を提供しています。これはAzureが単に別のモデルプロバイダーを追加したのではなく、最良のAIインフラは単一モデルファミリーに縛られないことをMicrosoftが認めたことを意味します。

重要なのはこういうことです。あなたは今や量子化済みやファインチューニング済みのウェイトを持ち込んで、Azureを介してFireworksの推論スタック上で大規模に実行できるようになりました。これは閉鎖的なAIプラットフォームへの直接的な挑戦です。ウェイトはあなたの所有物であり、配備もあなたの管理下にあります。そしてAzureサービスに期待される一貫したガバナンスと監視機能も利用可能です。

GPT-5.4の一般提供開始(エージェント的ワークフローとコンピュータ機能に向けて構築)、加えてPremium SSD v2とUltra Disk向けの瞬時アクセススナップショットの改善と合わせて、今週は数ヶ月ぶりに最も開発者に関連するAzureのアップデートが届けられました。

Fireworks AI:1,000トークン/秒、Azureのガバナンス

Fireworks AIは既にオープンモデル推論性能の市場リーダーです。毎秒180,000リクエスト、大規模モデルで毎秒1,000トークン超を誇ります。Microsoft Foundryが提供するのはエンタープライズ向けコントロールプレーンであり、統合課金、RBAC、監査ログ、ネットワーク分離、Azureサービスに求められるコンプライアンス体制を同時に提供します。

展開モードは2つあります:

  • サーバーレス(トークン単位課金):Data Zone Standard(米国リージョン:West US 3、West US、North Central US、Central US、East US 2、East US)で利用可能。地域やモデルごとにデフォルトで毎分25万トークンのクォータが付与されます。実験や突発的なワークロードに適しています。
  • Provisioned Throughput Units (PTUs):グローバルで利用可能で、一貫した安定したパフォーマンスを提供します。ベースモデルまたはカスタムモデルにあなたのウェイトを乗せて展開可能。実験が終わったらここに移行します。

BYOW(Bring Your Own Weights)機能は隠れた大きな特徴です。もしLlama、Mistral、DeepSeekなどを別環境でファインチューニングしていれば、そのウェイトをアップロードし、Foundryに登録し、Fireworksの推論スタックで展開できます。サービング層を再構築したりツールを切り替える必要はなく、ただウェイトを置いてデプロイするだけです。

これはAzureが未来のAIは単一ベンダーではなくマルチモデルであると賭けている証です。オープンモデルは代替策ではなく、アーキテクチャそのものです。

GPT-5.4:エージェント的ワークフローのために設計された本格リリース

GPT-5.4が一般提供開始されました。シンプルな前提に基づいて設計されています:AIエージェントは単に計画するだけでなく確実に作業を完遂しなければならない。このモデルは一貫性、指示の順守、長時間の対話における持続的な文脈保持を重視しており、マルチステップのツール使用やファイル操作が通常となるエージェント的ワークフローに特化しています。

以前のGPT-5モデルに対する主な改善点:

  • コンピュータ使用機能:UI操作や自動化シナリオの組み込みサポート。サードパーティツールによる後付けではありません。
  • 拡張コンテキストでの強力な推論能力:指示のズレ減少、ワークフロー途中の失敗減少
  • ツール・ファイル処理の信頼性:マルチステップ操作間の状態維持が向上

これは「モデルがどれだけ賢いか」を見せる派手なリリースではなく、生産環境で20段階のワークフロー半ばの失敗が実利益に繋がるチーム向けの真剣な更新です。エージェント操作に最適化されたOpenAIモデルを待っていたなら、これがそれにあたります。

GPT-5.4は今年2月に出たGPT-5.3-Codex、GPT-Realtime-1.5、GPT-Audio-1.5と共に、Microsoftがリアルタイム、音声優先、エージェント的AI体験を推進する一環です。新モデルは生の知能よりも継続性と信頼性を優先しています。なぜならそれが生産AIシステムに実際に必要なものだからです。

瞬時アクセススナップショット:プレミアムSSDディスクの待ち時間ゼロ復旧

Azure StorageはプレミアムSSD v2とUltra Diskのインクリメンタルスナップショットに瞬時アクセスを提供しました。これはインフラ更新としては地味ですが、インシデント時に2TBのスナップショットからの復旧に30分待った経験があるなら価値がわかります。

仕組みはこうです。瞬時アクセスを有効にしてインクリメンタルスナップショットを作成すると、スナップショットは即座に使用可能になります。バックグラウンドのデータコピーを待たずにディスク復元が可能で、復元されたディスクは開始時からミリ秒単位の低レイテンシかつほぼフルパフォーマンスを発揮します。

標準スナップショットはStandard ZRSにデータを保存し、耐久性と低コストはあるものの復元に時間がかかります。瞬時アクセススナップショットは指定時間(例:5時間)高性能ストレージにポイントインタイムデータを保持し、その後自動的にStandard ZRSに移行します。必要な時には即時利用可能、不要な時は長期的に耐久保存できます。

活用例:

  • 高速ロールバック:リスクあるデプロイ前にスナップショット取得。失敗したら数秒で復元しオンライン復帰。
  • 迅速スケールアウト:本番ディスクをクローンし読み取りレプリカを即起動(例:SQL Serverセカンダリ)可能。
  • 環境リフレッシュ:本番環境からテスト環境へ即コピー、開始からフルパフォーマンス。

Azure Database Services(PostgreSQLなど)は既にバックアップやスケール操作の裏でこれを使っていますが、今後は直接VMやステートフルワークロード向けにも利用可能です。

瞬時アクセススナップショットは、プレミアムSSD v2とUltra Diskがサポートされる全Azureリージョンで利用可能で、利用量ベースの料金体系(使用容量+復元操作ごと)です。事前のプロビジョニングやスナップショット層の管理は不要で、作成時に瞬時アクセスを有効にするだけで利用できます。

エージェント的クラウド運用:Azure Copilotの移行・展開・最適化エージェント

数週間前、Microsoftはエージェント的クラウド運用を発表しました。これはAzure Copilotがクラウドライフサイクル全体に対するエージェント的インターフェースとして動作する新しい運用モデルです。単なる質問応答チャットボットではなく、状態を把握して信号を関連付け、運用履歴を理解し、移行、展開、最適化、監視、レジリエンシー、トラブルシューティングにおいてガバナンスされた行動を取る文脈認識型のエージェントのシステムです。

主要エージェント:

  • 移行エージェント:環境を発見し依存関係をマッピング、ワークロード移行前にモダナイズ経路を特定
  • 展開エージェント:適正アーキテクチャ設計を案内し、運用ベストプラクティスを強制するIaCアーティファクトを生成
  • 最適化エージェント:コスト、パフォーマンス、持続可能性を横断的に改善し、財務影響と炭素影響をリアルタイムで比較実行
  • レジリエンシーエージェント:ランサムウェアなどのリスク防御を継続的に強化し、検証から積極的な姿勢管理へ移行
  • トラブルシューティングエージェント:根本原因を診断し、修正を推薦し、必要に応じてサポートアクションを開始

これはAIワークロードがもたらす運用複雑化へのMicrosoftの回答です。ダッシュボードを増やす代わりに、ワークフロー内にインテリジェンスを埋め込むアプローチです。各エージェントが起動するアクションは既存のRBAC、ポリシー、セキュリティ制御を尊重し、ガバナンスは追加機能ではなく基盤として機能します。

ミッションクリティカルなワークロードを運用するチームには、BYOS(Bring Your Own Storage)機能がさらに制御を提供し、会話履歴を自社のAzure環境に保管することで主権とコンプライアンスを確保します。

これらの機能はまだ初期段階でプレビューが多いですが、Azureが向かう先を示しています。運用はリアクティブで手動ではなく、動的で文脈認識的かつ継続的に最適化される方向へ進んでいます。

IaaSは死んでいない——AIインフラの基盤である

先週、AzureはIaaSリソースセンターをローンチしました。計算、ストレージ、ネットワーキングに関するガイダンスを一元化したハブです。メンテナンスドキュメントのように聞こえますが、実際にはMicrosoftが基盤インフラの重要性を強調しているものです。特にAIワークロードがスタックにより多くを要求する中で重要性が増しています。

リソースセンターは次をまとめています:

  • AIトレーニングクラスターと本番データベース向けのVMサイズ選択ガイダンス
  • データ集約型ワークロード向けストレージパフォーマンス最適化
  • 低遅延グローバル分散アプリケーション向けネットワークパターン
  • インフラ層全体のレジリエンシーとセキュリティベストプラクティス

Azure IaaSは70以上のリージョンにまたがり、ハードウェアアクセラレーション(GPU、FPGA)と統合、ゾーン冗長、リージョナル冗長、グローバル分散アーキテクチャをサポートします。AI採用が加速する中で、インフラ設計の重要性は増しています。ボトルネックは通常モデル自体ではなく、トレーニングデータ供給のためのストレージスループットや分散ワーカー間のネットワーク遅延にあります。

大規模AIシステムを構築するなら、このリソースセンターはブックマークに値します。派手ではありませんが、生産AIを支えるインフラも同様に目立たず重要です。

まとめ

今週のアップデートはMicrosoftの多方向からのAIインフラ戦略を示しています。Fireworks AIによるオープンモデル、GPT-5.4によるエージェント的信頼性、スナップショット改善による瞬時インフラ回復、Azure Copilotエージェントによる運用インテリジェンス。このすべてが、AIインフラをマルチモデルかつエージェントが操作し、斬新さより信頼性を最適化する未来へと築いています。

最も重要なシグナルはFireworks AIの立ち上げです。Microsoftは企業が任意のモデル(プロプライエタリでもオープンでも)を自分たちの制御下にあるインフラでガバナンスを確信しながら運用したいと願っていると賭けています。これは多くのクラウドAIプラットフォームが辿った閉鎖的なエコシステム戦略からの転換です。AzureがオープンソースAIコミュニティの現在地点にあなたを迎えに来ることを待ち望んでいたなら、今週がまさにその週となりました。