MiniMax-M2.7をGGUFに量子化し終えました。利用可能な標準の量子化レベルは以下のとおりです:
- BF16(約427 GB)
- Q8_0(約243 GB)
- Q6_K(約188 GB)
- Q5_K_M(約162 GB)
- Q4_K_M(約138 GB)
- Q3_K_M(約109 GB)
- Q2_K(約83 GB)
[リンク] [コメント]
Reddit r/LocalLLaMA / 2026/4/12
MiniMax-M2.7をGGUFに量子化し終えました。利用可能な標準の量子化レベルは以下のとおりです:
- BF16(約427 GB)
- Q8_0(約243 GB)
- Q6_K(約188 GB)
- Q5_K_M(約162 GB)
- Q4_K_M(約138 GB)
- Q3_K_M(約109 GB)
- Q2_K(約83 GB)