Mastra で ローカルLLM をサクッと動かす
Zenn / 2026/4/2
💬 オピニオンDeveloper Stack & InfrastructureTools & Practical Usage
要点
- Mastraを使ってローカルLLMを素早く起動し、開発環境に組み込む手順を紹介しています。
- ローカルでLLMを動かすための実装・運用上の要点(設定や動作確認の観点)に焦点を当てています。
- “サクッと動かす”ことを目的に、導入〜利用開始までの流れを開発者向けに整理しています。
- ローカルLLM活用のハードルを下げ、試作や検証のスピード向上につながる内容です。
Mastra でサクッとローカルLLMを実験したい。
Mac (Arm) に最適化された MLX版のモデルを使いたいので LM Studio を使います。
動作環境
Model Name: MacBook Pro
Chip: Apple M1 Pro
Memory: 32 GB
System Version: macOS 15.0 (24A335)
ローカルLLMをインストール
LM Studio をインストール
curl -fsSL https://lmstudio.ai/install.sh | bash
lms -v
CLI commit: df81c60
モデルを...
この記事の続きは原文サイトでお読みいただけます。
原文を読む →



