皆さんこんにちは、
まだデータがないようなので、26B A4B と 31b に対してどの量子化(quant)のほうがより良いのか気になっています。個人的には、Bartowski の 26b a4b q4_k_m と、openrouter および AI Studio のフルバージョンをテストした経験の中で、この quant が非常に優れたパフォーマンスを発揮することが分かりました。ですが、皆さんのご見解を伺いたいです。
[リンク] [コメント]
Reddit r/LocalLLaMA / 2026/4/6
皆さんこんにちは、
まだデータがないようなので、26B A4B と 31b に対してどの量子化(quant)のほうがより良いのか気になっています。個人的には、Bartowski の 26b a4b q4_k_m と、openrouter および AI Studio のフルバージョンをテストした経験の中で、この quant が非常に優れたパフォーマンスを発揮することが分かりました。ですが、皆さんのご見解を伺いたいです。