MiniMax m2.7 under 64gb for Macs - 91% MMLU

Reddit r/LocalLLaMA / 4/14/2026

💬 OpinionSignals & Early TrendsTools & Practical UsageModels & Research

Key Points

  • MiniMax M2.7の量子化版モデルがHugging Face(JANGQ-AI/MiniMax-M2.7-JANGTQ)で共有され、Mac環境で64GB未満でも動かせることを訴求しています。
  • TQ(量子化)手法を「効くところで使う」ことで、91% MMLUというベンチマークに近い性能を狙っていると説明されています。
  • Reddit投稿では、特にBase M5ユーザーなどローカル実行できる層に向けて「自宅でSOTA級LLM体験」を可能にする文脈で紹介されています。
  • 実行環境としてmlx.studioへのリンクがあり、MLX系のローカル推論ワークフローでの利用が想定されています。
MiniMax m2.7 under 64gb for Macs - 91% MMLU

https://huggingface.co/JANGQ-AI/MiniMax-M2.7-JANGTQ

Used TQ as quantization method where it matters. Finally mac users under 64 gb - esp base m5 users can get a real cloud SOTA-like level LLM running from home. Second image is from a user on older device i believe

https://mlx.studio

submitted by /u/HealthyCommunicat
[link] [comments]