MB Pro M5、24GB/32GBの違い?

Reddit r/LocalLLaMA / 2026/4/17

💬 オピニオンSignals & Early TrendsTools & Practical Usage

要点

  • この投稿では、MacBook Pro M5 のRAMを24GBから32GBへアップグレードした場合に、VS Code の GitHub Copilot 拡張でのコーディング支援ワークフローにおけるローカルLLM利用が実質的にどれほど改善するかが議論されます。
  • ユーザーは Ollama で 16k のコンテキストウィンドウを使い Gemma 4 26B を試し、パフォーマンスは許容できると感じた一方で、メモリ使用量が非常に高く、メモリプレッシャーが頻繁に黄色になります。
  • 主な問いは、24GBと32GBの違いによってメモリプレッシャーが下がり、これらの大規模モデルをローカルで動かす際の安定性やパフォーマンスが向上するのかどうかです。
  • この状況は、ローカルLLMの実務的なキャパシティ計画の難しさを浮き彫りにしており、コンテキスト長やモデルサイズによって、想定を超えるほどメモリ需要が膨らみ得ることが示されています。

こんにちは、新しいMB Pro 24GB/1TBを手に入れました。ollamaでGemma 4 26B、16kのコンテキストでテストしました。VS codeのgithub copilot拡張経由で、コーディングアシスタントとして使っています。

期待していたよりもうまく動きますが、メモリの大半を消費してしまい、メモリプレッシャーは常に黄色になります。

この組み合わせのために、24GBを返して32GBを買うべきでしょうか?それとも、このメモリ容量には実際の違いはありませんか?

に投稿 /u/dit6118
[リンク] [コメント]