i-Quantは過大評価されている?

Reddit r/LocalLLaMA / 2026/4/14

💬 オピニオン

要点

  • 本記事は、量子化にimatrixを用いるi-Quantsによって、より低ビットのモデル(例:Q4_K_XL)が、多くの英語中心のタスクにおいて、より高ビットのバリアント(例:Q6_K)のように振る舞えるようになると主張している。

私たちは皆、Q4_K_XLモデルをQ6_Kのように感じさせるためにイマトリクスを使う、現代的な「インテリジェント」量子化を知っています。

しかし、ここで私が気づいたことがあります。これはほとんどの英語タスクではうまく機能しますが、他の言語やニッチなタスクではその効果が逆になることがあります。

理由はとてもシンプルで、イマトリクスファイルを見ればすぐ分かります。ここには英語が80%あり、ほとんどが基本的なタスクで、いくつかのコードが含まれている、という内容です。少数のイマトリクスファイルだけが、思慮深いエンジニアリングの成果です。

だから最近は、私はほとんどの場合またクラシックなQ4_K_Mを使っています。

もちろん例外が1つあります:
Q1またはQ2まで深く下げる場合です。貧弱なイマトリクスでも、まったくキャリブレーションしないよりはましです。ここでは空気がかなり薄くなり、モデルは通常、英語でしか実用にならないからです。

皆さんはどう思いますか?似た経験ですか、それとも違いますか?

submitted by /u/PromptInjection_
[link] [comments]