MacBook M4 (32GB) でローカルLLMを動かすなら結局どれがいいのか — 消去法で辿り着いた結論
Zenn / 2026/4/9
💬 オピニオンTools & Practical UsageModels & Research
要点
- MacBook M4(32GB)でローカルLLMを動かす前提で、候補を比較し「最終的にどれが良いか」を消去法で絞り込む結論が提示されています。
- 重要な判断軸は、ローカル実行時の実用性(動作のしやすさ・快適さ)とモデル性能のバランスに置かれています。
- ベンチマーク/試用の結果を踏まえ、同じ32GB環境でもモデル選定次第で体感が大きく変わる点を強調しています。
- 「最適解は用途依存」としつつ、一般的なローカル利用で失敗しにくい選び方(消去法の考え方)に落とし込んでいます。
TL;DR
MacBook Pro M4(32GB RAM)で「メモリ10GB以下・コーディングも数学も科学推論もそこそこ・ツール呼び出し対応」を満たすモデルを探した結果、qwen3.5:9b に落ち着いた。この記事はその過程を実測データと公開ベンチマークで裏付けたものです。
はじめに — なぜローカルLLMなのか
クラウドAPIは速くて賢いが、レイテンシ・コスト・プライバシーの問題がある。M4チップのApple Siliconは統合メモリでGPUとメモリを共有するため、ローカル推論に向いている。ただし32GBという制約の中で、普段使い(ブラウザ・エディタ等)を圧迫しないモデルを...
この記事の続きは原文サイトでお読みいただけます。
原文を読む →



