Qwen3.6 35b-a3bとGemma4 26b-a4b-itの“素人”比較

Reddit r/LocalLLaMA / 2026/4/21

💬 オピニオンSignals & Early TrendsTools & Practical Usage

要点

  • この投稿は、Qwen3.6-35b-a3bとGemma4 26b-a4b-itという2つのLLMを“素人目線”で比較し、Gemma 4を安定して仕事をこなすタイプ、Qwen3.6を高性能で表現力に余裕があるタイプとして描写しています。
  • 著者は、16GB VRAMのGPUと、WindowsのLM Studioで推奨される推論設定を使った場合に、両モデルの動作速度は同程度だと報告しています。
  • 比較の前提として、具体的な量子化済みモデル(unsloth/gemma-4-26B-A4B-it-UD-Q4_K_S、AesSedai/Qwen3.6-35B-A3B IQ4_XS)に言及しています。
  • 追記では、最初はGemma 4の使い方が不適切だったとしており、別コメントのシステムプロンプトを適用することで性能が引き出せたとしています。
  • 著者は異論を歓迎しており、決定版のベンチマークというよりコミュニティでの評価を促す位置づけです。
Layman's comparison on Qwen3.6 35b-a3b and Gemma4 26b-a4b-it

Gemma 4 26b-a4b-itは、基本的に「しっかりと仕事をこなす」堅実なB評価の生徒です。

Qwen3.6-35b-a3bは、宿題を終えた後も余力があって、見栄えを良くするような工夫(フレア)を足せるA+の生徒です。

私の16vramのビデオカードで。どちらのモデルも同等に近い速度で動作します。WindowsのLM Studioで、推奨の推論設定を使用。使用モデル:

unsloth/gemma-4-26B-A4B-it-UD-Q4_K_S

AesSedai/Qwen3.6-35B-A3B IQ4_XS

強い意見の相違はありますか?

編集:どうやら私はGemma 4の使い方を間違えていたようです。Sadman782のコメントと、彼のシステムプロンプトが、Gemma 4の潜在能力を引き出すのに本当に役立っています!

submitted by /u/LocalAI_Amateur
[link] [comments]