Unslothのモデルは、読んだ通りに本当に良いの?

Reddit r/LocalLLaMA / 2026/4/26

💬 オピニオンSignals & Early TrendsTools & Practical Usage

要点

  • この投稿は、Unslothの量子化モデルがユーザーの評判通りの実力なのかを、通常のモデルとの性能比較を通じて確かめようとしている。
  • 具体例として、投稿者は64GB RAMのMBP上で、qwen3.6:35b-a3b Q4_K_Mが約39 tokens/sなのに対し、Unsloth Studio版(unsloth/qwen3.6:35b-a3b UD-Q4_K_XL)は約57 tokens/sと大きな差が出たと報告している。
  • 著者は、この改善の理由をUnslothが層ごとの感度分析を行い、重要度に応じて量子化レベルを変える仕組みにあるのではないかと説明している。
  • 投稿では、この手法がモデルを小さくするだけでなく性能もより良くできるはずだという期待に触れ、他の人の実体験を募集している。

Unsloth が提供しているモデルと、それに対応するモデルとの間で比較した人はいますか?
例えば、私は qwen3.6:35b-a3b Q4_K_M を使っていて、私の MBP(64GB)では約 39 t/s です
Unsloth Studio を使い、unsloth/qwen3.6:35b-a3b UD-Q4_K_XL だと約 57 t/s です

速度の差はかなり大きいです。私が理解しているところでは、Unsloth のモデルは層ごとの感度分析を行い、それぞれの層がどれほど「重要」かに応じて異なる量子化レベルを割り当てます。これは当然モデルを小さくしますし、私が読んだ限りでは、そのおかげでモデルの性能もさらに良くなるはずです。

皆さんの経験はどうですか?

によって送信されました /u/denis-craciun
[link] [comments]

Unslothのモデルは、読んだ通りに本当に良いの? | AI Navigate