Unsloth の MiniMax M2.7 量子化モデルが HF へのアップロードを完了

Reddit r/LocalLLaMA / 2026/4/12

📰 ニュースSignals & Early TrendsTools & Practical UsageModels & Research

要点

  • Unsloth は、「unsloth/MiniMax-M2.7-GGUF」リポジトリのもとで、MiniMax M2.7 モデルの複数の量子化バリアントを Hugging Face にアップロードしました。
  • リリースは、1ビットから16ビット(BF16)までの量子化レベルにまたがっており、Q4/Q5/Q6 や Q8 などの中間設定も含まれています。
  • それぞれの量子化チェックポイントには対応する GGUF サイズが提示されており、品質/性能のトレードオフに応じたディスク/ストレージ要件をユーザーが把握できるようになっています。
  • 投稿では u/danielhanchen にクレジットが記載され、利用可能な量子化ラベルとそのサイズの現在の全インベントリが提示されています。
  • ローカルで MiniMax M2.7 を動かしたいユーザーは、これらのファイルから選択することで、モデルの品質とハードウェア制約のバランスを取れます。

範囲はQ1からBF16までです。

まだ熱いうちにこちらで手に入れてください

https://huggingface.co/unsloth/MiniMax-M2.7-GGUF

u/danielhanchenに感謝します!

現在の一覧はこちらです:

Bits Quantization Label Size
1-bit UD-IQ1_M 60.7 GB
2-bit UD-IQ2_XXS 65.4 GB
UD-IQ2_M 70.1 GB
UD-Q2_K_XL 75.3 GB
3-bit UD-IQ3_XXS 80.1 GB
UD-IQ3_S 83.6 GB
UD-Q3_K_S 93.6 GB
UD-Q3_K_M 101 GB
UD-Q3_K_XL 102 GB
4-bit UD-IQ4_XS 108 GB
UD-IQ4_NL 111 GB
UD-Q4_K_S 131 GB
MXFP4_MOE 136 GB
UD-Q4_K_M 140 GB
UD-Q4_K_XL 141 GB
5-bit UD-Q5_K_S 159 GB
UD-Q5_K_M 169 GB
UD-Q5_K_XL 169 GB
6-bit UD-Q6_K 188 GB
UD-Q6_K_XL 207 GB
8-bit Q8_0 243 GB
UD-Q8_K_XL 247 GB
16-bit BF16 457 GB
提出者: /u/Zyj
[リンク] [コメント]