MacBook M4 (32GB) でローカルLLMを動かすなら結局どれがいいのか — 消去法で辿り着いた結論
Zenn / 4/9/2026
💬 OpinionTools & Practical UsageModels & Research
Key Points
- MacBook M4(32GB)でローカルLLMを動かす前提で、候補を比較し「最終的にどれが良いか」を消去法で絞り込む結論が提示されています。
- 重要な判断軸は、ローカル実行時の実用性(動作のしやすさ・快適さ)とモデル性能のバランスに置かれています。
- ベンチマーク/試用の結果を踏まえ、同じ32GB環境でもモデル選定次第で体感が大きく変わる点を強調しています。
- 「最適解は用途依存」としつつ、一般的なローカル利用で失敗しにくい選び方(消去法の考え方)に落とし込んでいます。
TL;DR
MacBook Pro M4(32GB RAM)で「メモリ10GB以下・コーディングも数学も科学推論もそこそこ・ツール呼び出し対応」を満たすモデルを探した結果、qwen3.5:9b に落ち着いた。この記事はその過程を実測データと公開ベンチマークで裏付けたものです。
はじめに — なぜローカルLLMなのか
クラウドAPIは速くて賢いが、レイテンシ・コスト・プライバシーの問題がある。M4チップのApple Siliconは統合メモリでGPUとメモリを共有するため、ローカル推論に向いている。ただし32GBという制約の中で、普段使い(ブラウザ・エディタ等)を圧迫しないモデルを...
Continue reading this article on the original site.
Read original →Related Articles

Black Hat USA
AI Business

Black Hat Asia
AI Business

Meta Superintelligence Lab Releases Muse Spark: A Multimodal Reasoning Model With Thought Compression and Parallel Agents
MarkTechPost

Chatbots are great at manipulating people to buy stuff, Princeton boffins find
The Register
I tested and ranked every ai companion app I tried and here's my honest breakdown
Reddit r/artificial