マイクロソフト、ローカルAI環境をインストーラで配布できる「Foundry Local」正式リリース。MacやLinuxにも対応
Publickey / 2026/4/13
📰 ニュースDeveloper Stack & InfrastructureTools & Practical UsageIndustry & Market Moves
要点
- マイクロソフトが、アプリにバンドルしてインストーラ配布できるコンパクトなローカルAI環境「Foundry Local」を正式リリースし、クラウド非依存でローカル完結のAIソリューション提供を可能にしました。
- ランタイムとしてONNX RuntimeおよびWindows MLを用い、GPU/NPU/CPU等の実行ハードウェアに最適化して推論する設計で、複数のモデル(GPT OSS、Qwen、Deepseek、Whisper、Mistral、Phiなど)を選択できます。
- OpenAI REST APIを含む共通APIを「Foundry Local Core API」として提供し、SDK経由でアプリから推論を実行可能にしています。
- 対応言語はJavaScript、C#、Python、Rustで、ユーザー環境としてWindowsに加えMacやLinuxにも対応します。
マイクロソフトは、アプリケーションにバンドルしてインストーラで配布できるコンパクトなローカルAI環境「Foundry Local」の正式リリースを発表しました。 開発者はアプリケーションにFoundry LocalのAI環境をバンドルしてインストーラで配布できるため、クラウドなどに依存せず、ユーザーによる設定や追加導入なども不要な、ローカルで完結するAIソリューションをユーザーに提供できるようになります。 ハードウェアに最適化、多数のAIモデルから選択 Foundry Loc……
この記事の続きは原文サイトでお読みいただけます。
原文を読む →

