Gemma 4 vs Qwen3.5:Goコーディングでの量子化ローカルLLMのベンチマーク

Reddit r/LocalLLaMA / 2026/4/11

💬 オピニオンSignals & Early TrendsTools & Practical UsageModels & Research

要点

  • この投稿では、2つの量子化された混合専門家(MoE)型LLM――Gemma 4 と Qwen 3.5――のローカルでのコーディング性能を比較し、特にノートPCの限られたハードウェア条件下で評価しています。
  • メモリ帯域と計算能力の制約を考慮し、40Bパラメータ未満のモデルに絞ってベンチマークに焦点を当てています。
  • 著者は、同じローカル利用の制約下であるにもかかわらず、追加のベースラインである GPT-OSS-20B が意外にも良い結果を示したことに言及しています。
  • 全体のテーマは、大規模なデプロイではなく、Goのコーディングワークフローに対する量子化ローカルLLMの実用的な評価です。
  • 結果は、実際のコーディング課題に取り組むために、開発者がより小さなローカルモデルを実行・テストしやすくする方法を改善するための、進行中のハンズオン実験として提示されています。

私は framework13 のノートPCで、ローカルのLLMをいろいろ試し続けています。

そのため、メモリ帯域幅と処理能力には制限があるので、40Bパラメータ未満の MoE を量子化したモデルを探ることになります。

意外にも、私にとって gpt-oss-20B はかなりうまくやれました..

投稿者 /u/m3thos
[link] [comments]