マイクロソフト、ローカルAI環境をインストーラで配布できる「Foundry Local」正式リリース。MacやLinuxにも対応

Publickey / 4/13/2026

📰 NewsDeveloper Stack & InfrastructureTools & Practical UsageIndustry & Market Moves

Key Points

  • マイクロソフトが、アプリにバンドルしてインストーラ配布できるコンパクトなローカルAI環境「Foundry Local」を正式リリースし、クラウド非依存でローカル完結のAIソリューション提供を可能にしました。
  • ランタイムとしてONNX RuntimeおよびWindows MLを用い、GPU/NPU/CPU等の実行ハードウェアに最適化して推論する設計で、複数のモデル(GPT OSS、Qwen、Deepseek、Whisper、Mistral、Phiなど)を選択できます。
  • OpenAI REST APIを含む共通APIを「Foundry Local Core API」として提供し、SDK経由でアプリから推論を実行可能にしています。
  • 対応言語はJavaScript、C#、Python、Rustで、ユーザー環境としてWindowsに加えMacやLinuxにも対応します。
マイクロソフトは、アプリケーションにバンドルしてインストーラで配布できるコンパクトなローカルAI環境「Foundry Local」の正式リリースを発表しました。 開発者はアプリケーションにFoundry LocalのAI環境をバンドルしてインストーラで配布できるため、クラウドなどに依存せず、ユーザーによる設定や追加導入なども不要な、ローカルで完結するAIソリューションをユーザーに提供できるようになります。 ハードウェアに最適化、多数のAIモデルから選択 Foundry Loc……

Continue reading this article on the original site.

Read original →