マイクロソフト、ローカルAI環境をインストーラで配布できる「Foundry Local」正式リリース。MacやLinuxにも対応
Publickey / 4/13/2026
📰 NewsDeveloper Stack & InfrastructureTools & Practical UsageIndustry & Market Moves
Key Points
- マイクロソフトが、アプリにバンドルしてインストーラ配布できるコンパクトなローカルAI環境「Foundry Local」を正式リリースし、クラウド非依存でローカル完結のAIソリューション提供を可能にしました。
- ランタイムとしてONNX RuntimeおよびWindows MLを用い、GPU/NPU/CPU等の実行ハードウェアに最適化して推論する設計で、複数のモデル(GPT OSS、Qwen、Deepseek、Whisper、Mistral、Phiなど)を選択できます。
- OpenAI REST APIを含む共通APIを「Foundry Local Core API」として提供し、SDK経由でアプリから推論を実行可能にしています。
- 対応言語はJavaScript、C#、Python、Rustで、ユーザー環境としてWindowsに加えMacやLinuxにも対応します。
マイクロソフトは、アプリケーションにバンドルしてインストーラで配布できるコンパクトなローカルAI環境「Foundry Local」の正式リリースを発表しました。 開発者はアプリケーションにFoundry LocalのAI環境をバンドルしてインストーラで配布できるため、クラウドなどに依存せず、ユーザーによる設定や追加導入なども不要な、ローカルで完結するAIソリューションをユーザーに提供できるようになります。 ハードウェアに最適化、多数のAIモデルから選択 Foundry Loc……
Continue reading this article on the original site.
Read original →💡 Insights using this article
This article is featured in our daily AI news digest — key takeaways and action items at a glance.
Related Articles

Black Hat USA
AI Business

Black Hat Asia
AI Business

Your developers are already running AI locally: Why on-device inference is the CISO’s new blind spot
VentureBeat

ChatGPT Prompt Engineering for Freelancers: A Step-by-Step Guide to Unlocking AI-Powered Client Acquisition
Dev.to

From Batch to Bot: AI for Specialty Food Label Compliance
Dev.to