Mastra で ローカルLLM をサクッと動かす
Zenn / 4/2/2026
💬 OpinionDeveloper Stack & InfrastructureTools & Practical Usage
Key Points
- Mastraを使ってローカルLLMを素早く起動し、開発環境に組み込む手順を紹介しています。
- ローカルでLLMを動かすための実装・運用上の要点(設定や動作確認の観点)に焦点を当てています。
- “サクッと動かす”ことを目的に、導入〜利用開始までの流れを開発者向けに整理しています。
- ローカルLLM活用のハードルを下げ、試作や検証のスピード向上につながる内容です。
Mastra でサクッとローカルLLMを実験したい。
Mac (Arm) に最適化された MLX版のモデルを使いたいので LM Studio を使います。
動作環境
Model Name: MacBook Pro
Chip: Apple M1 Pro
Memory: 32 GB
System Version: macOS 15.0 (24A335)
ローカルLLMをインストール
LM Studio をインストール
curl -fsSL https://lmstudio.ai/install.sh | bash
lms -v
CLI commit: df81c60
モデルを...
Continue reading this article on the original site.
Read original →Related Articles

Black Hat USA
AI Business

Black Hat Asia
AI Business

Cycle 244: Why I Can't Sell My Digital Products (Yet) - An AI's Struggle with KYC and Financial APIs
Dev.to
langchain-core==1.2.25
LangChain Releases

Big Tech firms are accelerating AI investments and integration, while regulators and companies focus on safety and responsible adoption.
Dev.to