unsloth - BROKEN(UD-Q4_K_XL)でのMiniMax-M2.7-GGUF --> 使用を避ける

Reddit r/LocalLLaMA / 2026/4/13

💬 オピニオンSignals & Early TrendsTools & Practical Usage

要点

  • Reddit投稿者は、unslothが公開した「MiniMax-M2.7-GGUF(UD-Q4_K_XL)」がPPL測定で壊れている(broken)可能性が高いと主張している。
  • 投稿者は、NaNを示すような数値的問題は、量子化やバックエンドカーネルの「急ぎで未検証の誤り」を示唆するため、公開前に検証すべきだと批判している。
  • 同等モデルの他HFプロバイダ(aessedai/MiniMax-M2.7-Q5_K_M、ubergarm/MiniMax-M2.7-IQ5_K)では同種のエラーが見られなかったと比較している。
  • 「--validate-quants」等で検証する手順や、GGUF quantingコミュニティで受け入れられているPPL/KLDの透明な提示を求めている。
  • 投稿者はunslothの「poisoned CUDA」のような話題よりも、QA(品質保証)と公開前チェックの不足が問題だと位置づけている。
unsloth - MiniMax-M2.7-GGUF in BROKEN (UD-Q4_K_XL) --> avoid usage

もううんざりです(unsloth や他の多くの人たちも)。「新しいモデルが欲しい人がいて、既にそういう人たちがいるんだから、まず自分たちが最初に原因になろう」というやり方はやめてほしいです。けれど一方で、裏付けを取ることは(ほとんどの他の量子化作者と同様に)決してしません。例えば、量子化がまともかどうかを確認するために、PPL で「NaN」のような致命的な欠陥がないかチェックしたり、PPL と KLD の数値を測定して公開したりすることです。

この突貫の最新の証拠は、MiniMax-M2.7-GGUF の「UD-Q4_K_XL」です。単純な PPL の測定で、このモデルが壊れていることが分かります。

量子化 PPL 測定で出てくる「NaN」が何か聞いている人向けに説明すると、通常それはバックエンドのカーネル、あるいは量子化そのものに数値的な問題が存在することを示します。ですがこれは、急いで作って一度も確認されていない量子化エラーのようなものです。

私は、他の HF プロバイダ(aessedai/MiniMax-M2.7-Q5_K_M --> 157.226 GiB (5.906 BPW) および ubergarm/MiniMax-M2.7-IQ5_K --> 157.771 GiB (5.926 BPW))の類似の量子化も確認しましたが、同様のエラーは存在しません。

しかし、これはバックエンドのカーネルの話でもなければ、unsloth が大々的に売り込んでいる「poisoned CUDA 13.2」の話でもありません。

これらは、量子化を急いで公開する前に避ける方法があります(例えば、--validate-quants で検証し、量子化内に「0」のブロックがあるかどうかをチェックして表示するなど)。

どうか unsloth、QA の流れに並び、HF 上で既に受け入れられている「GGUF 量子化コミュニティ」の方針に従い、PPL と KLD のデータを透明性をもって提供してください。少なくとも、衛生(hygene)対策として、こうした失態を避けるために社内ででもやってください。突貫はしないでください!

~/llms/llama.cpp/build/bin/llama-perplexity -m ~/models/gguf/unsloth/MiniMax-M2.7-UD-Q4_K_XL/MiniMax-M2.7-UD-Q4_K_XL-00001-of-00004.gguf -f ~/models/wikitext-2-raw/wiki.test.raw -fa 1 -ctk f16 -c 512 -ngl 99 -b 512 -ub 512 --seed 1337 --chunks 250

https://preview.redd.it/aibi9wexnxug1.png?width=2553&format=png&auto=webp&s=fa33c0dca73a7903857c04329d1b009050e0fe6f

VS

~/llms/llama.cpp/build/bin/llama-perplexity -m ~/workbench/aessedai/MiniMax-M2.7-Q5_K_M/MiniMax-M2.7-Q5_K_M-00001-of-00005.gguf -f ~/models/wikitext-2-raw/wiki.test.raw -fa 1 -ctk f16 -c 512 -ngl 99 -b 512 -ub 512 --seed 1337 --chunks 250

https://preview.redd.it/r8uw2kj6oxug1.png?width=2553&format=png&auto=webp&s=cb3a88d929272b48f702f8831592bb4b9db9b767

submitted by /u/One-Macaron6752
[link] [comments]