| 注: 1つ目はQwen3.5 35B MoE(左)で、2つ目はQwen3.6(右)です みなさんこんにちは Qwen3.6 35B MoE と Qwen3.5 35B MoE を簡単に比較してみました。推論(reasoning)はオフにして、llama.cpp と同じ量子化(quant)で unsloth 4 K_XL GGUF を使用しています。 1つ目が Qwen3.5 の結果で、2つ目が Qwen3.6 です。 判断は皆さんにお任せします。何か結論を出すには、もう少し実験が必要です。 私は、以前に qwen3.5 35B で作ったのと同じスキルを使いました。 [リンク] [コメント] |
Research Paper to WebApp における Qwen 3.6 35B MoE と Qwen 3.5 35B MoE の比較
Reddit r/LocalLLaMA / 2026/4/17
💬 オピニオンSignals & Early TrendsTools & Practical UsageModels & Research
要点
- 投稿では、「Research Paper to WebApp」向けに変換した際の Qwen3.5 35B MoE と Qwen3.6 35B MoE を比較しており、同じローカル環境と量子化(unsloth 4K_XL GGUF)を使用し、推論(reasoning)はオフにしています。
- 著者は、Qwen3.5 用に作成済みの既存「research-webapp-skill」を用いて、両モデルを llama.cpp/llama-server 経由で実行し、条件をできるだけ一致させています。
- 結果はビフォー/アフター形式(左が Qwen3.5、右が Qwen3.6)で示されていますが、著者はこの比較は予備的なものであり、追加の実験が必要だと注意しています。
- 共通のコマンドには、文脈長、バッチ処理、temperature/top-p/top-k、ペナルティなどの具体的な推論パラメータが含まれており、生成挙動を制御しようとした形跡があります。
- 全体として、Qwen 3.5 から 3.6 へのアップグレードが「リサーチ→Webアプリ」タスクの性能を改善するかどうかを、開発者が判断するための実用的でユーザー主導の評価指標になっています。

