MiniMax-M2.7 GGUF Quant — フルセット(Q2_K から Q8_0 + BF16)

Reddit r/LocalLLaMA / 2026/4/12

📰 ニュースSignals & Early TrendsTools & Practical UsageModels & Research

要点

  • MiniMax-M2.7はGGUF形式に量子化されており、投稿では標準的な量子化バリエーションの完全なセットが利用可能になったと主張しています。

MiniMax-M2.7をGGUFに量子化し終えました。利用可能な標準の量子化レベルは以下のとおりです:

- BF16(約427 GB)

- Q8_0(約243 GB)

- Q6_K(約188 GB)

- Q5_K_M(約162 GB)

- Q4_K_M(約138 GB)

- Q3_K_M(約109 GB)

- Q2_K(約83 GB)

https://huggingface.co/dennny123/MiniMax-M2.7-GGUF

作成者: /u/Asleep_Training3543
[リンク] [コメント]