| ハードウェアに25kドル。ここに何をロードしてほしいか教えてくれれば、テストするのを手伝います。 現在、各台でGLM 5.1 Q4を動かしています(exoがQ8版を読み込まない理由を調査中) コミュニティがMLX/mmap向けに最適化してくれるタイミングで、kimi2.6をのんびり待っています [リンク] [コメント] |
デュアル512GB RAMのM3 Ultra搭載Mac StudioでのローカルLLM検証
Reddit r/LocalLLaMA / 2026/4/21
💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage
要点
- Redditの投稿者は、デュアル512GB RAMを搭載したMac Studioに約2.5万ドルを投じたと述べ、要望に応じて検証を手伝うとしています。
- DeepSeek V3.2をQ8でExoバックエンド経由にて動かした実績を示しつつ、現在はExoがQ8版を読み込めない理由を調査しています。
- それぞれのマシンではGLM 5.1をQ4で動作させている一方、Kimi 2.6のリリース後にコミュニティがMLX/mmap向けに最適化するのを待っているとしています。
- 高メモリのApple Silicon環境でのローカルLLM推論における量子化やロード挙動を、実機で試すことの重要性を強調しています。




