デュアル512GB RAMのM3 Ultra搭載Mac StudioでのローカルLLM検証

Reddit r/LocalLLaMA / 2026/4/21

💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage

要点

  • Redditの投稿者は、デュアル512GB RAMを搭載したMac Studioに約2.5万ドルを投じたと述べ、要望に応じて検証を手伝うとしています。
  • DeepSeek V3.2をQ8でExoバックエンド経由にて動かした実績を示しつつ、現在はExoがQ8版を読み込めない理由を調査しています。
  • それぞれのマシンではGLM 5.1をQ4で動作させている一方、Kimi 2.6のリリース後にコミュニティがMLX/mmap向けに最適化するのを待っているとしています。
  • 高メモリのApple Silicon環境でのローカルLLM推論における量子化やロード挙動を、実機で試すことの重要性を強調しています。
2x 512gb ram M3 Ultra mac studios

ハードウェアに25kドル。ここに何をロードしてほしいか教えてくれれば、テストするのを手伝います。
これまでにexoバックエンドでdeepseek v3.2 Q8をやってみました。

現在、各台でGLM 5.1 Q4を動かしています(exoがQ8版を読み込まない理由を調査中)

コミュニティがMLX/mmap向けに最適化してくれるタイミングで、kimi2.6をのんびり待っています

投稿者: /u/taylorhou
[リンク] [コメント]