Mac向け MiniMax m2.7(64GB未満)— 91% MMLU

Reddit r/LocalLLaMA / 2026/4/14

💬 オピニオンSignals & Early TrendsTools & Practical UsageModels & Research

要点

  • MiniMax M2.7の量子化版モデルがHugging Face(JANGQ-AI/MiniMax-M2.7-JANGTQ)で共有され、Mac環境で64GB未満でも動かせることを訴求しています。
  • TQ(量子化)手法を「効くところで使う」ことで、91% MMLUというベンチマークに近い性能を狙っていると説明されています。
  • Reddit投稿では、特にBase M5ユーザーなどローカル実行できる層に向けて「自宅でSOTA級LLM体験」を可能にする文脈で紹介されています。
  • 実行環境としてmlx.studioへのリンクがあり、MLX系のローカル推論ワークフローでの利用が想定されています。
Mac向けのMiniMax m2.7、64GB未満 - MMLU 91%

https://huggingface.co/JANGQ-AI/MiniMax-M2.7-JANGTQ

必要なところではTQを量子化手法として使用しました。最終的に、64GB未満のMacユーザー、特にベースがm5のユーザーなら、自宅から本物のクラウドSOTA級のようなレベルのLLMを動かせます。2枚目の画像は、(私の考えでは)古い端末のユーザーによるものです。

https://mlx.studio

投稿者 /u/HealthyCommunicat
[link] [comments]