| https://huggingface.co/JANGQ-AI/MiniMax-M2.7-JANGTQ Used TQ as quantization method where it matters. Finally mac users under 64 gb - esp base m5 users can get a real cloud SOTA-like level LLM running from home. Second image is from a user on older device i believe [link] [comments] |
MiniMax m2.7 under 64gb for Macs - 91% MMLU
Reddit r/LocalLLaMA / 4/14/2026
💬 OpinionSignals & Early TrendsTools & Practical UsageModels & Research
Key Points
- MiniMax M2.7の量子化版モデルがHugging Face(JANGQ-AI/MiniMax-M2.7-JANGTQ)で共有され、Mac環境で64GB未満でも動かせることを訴求しています。
- TQ(量子化)手法を「効くところで使う」ことで、91% MMLUというベンチマークに近い性能を狙っていると説明されています。
- Reddit投稿では、特にBase M5ユーザーなどローカル実行できる層に向けて「自宅でSOTA級LLM体験」を可能にする文脈で紹介されています。
- 実行環境としてmlx.studioへのリンクがあり、MLX系のローカル推論ワークフローでの利用が想定されています。



