Bonsai-8B-mlx × Goose でフルローカルの AI エージェント環境を作る
Zenn / 4/6/2026
💬 OpinionDeveloper Stack & InfrastructureTools & Practical Usage
Key Points
- Bonsai-8B-mlx と Goose を組み合わせて、ローカル環境で動く AI エージェント基盤を構築する手順・考え方を紹介している。
- クラウド依存を減らし、手元の計算資源でエージェント実行〜運用までを行う「フルローカル」実現が主題になっている。
- モデル実行(Bonsai-8B-mlx)側のセットアップと、エージェント/ワークフローを担う Goose 側の組み立てを分けて説明し、導入の道筋を示している。
- 自前環境での検証・改善を前提に、開発者が環境構築から試行まで素早く進められることを狙っている。
Mac (M1 - メモリー16GM) でローカル LLM を動かして、それを AI エージェントのバックエンドにしたい——そういう用途に Bonsai-8B-mlx と Goose の組み合わせが使えます。この記事では両者の概要を紹介しつつ、実際につないで動かすまでの手順と詰まりやすいポイントをまとめます。
Bonsai-8B-mlx とは
Bonsai-demo は PrismML が公開している Apple Silicon 向けの LLM デモリポジトリです。モデル本体は Bonsai-8B-mlx で、MLX フォーマットで配布されています。
MLX は Apple が開発し...
Continue reading this article on the original site.
Read original →



