Research Paper to WebApp における Qwen 3.6 35B MoE と Qwen 3.5 35B MoE の比較

Reddit r/LocalLLaMA / 2026/4/17

💬 オピニオンSignals & Early TrendsTools & Practical UsageModels & Research

要点

  • 投稿では、「Research Paper to WebApp」向けに変換した際の Qwen3.5 35B MoE と Qwen3.6 35B MoE を比較しており、同じローカル環境と量子化(unsloth 4K_XL GGUF)を使用し、推論(reasoning)はオフにしています。
  • 著者は、Qwen3.5 用に作成済みの既存「research-webapp-skill」を用いて、両モデルを llama.cpp/llama-server 経由で実行し、条件をできるだけ一致させています。
  • 結果はビフォー/アフター形式(左が Qwen3.5、右が Qwen3.6)で示されていますが、著者はこの比較は予備的なものであり、追加の実験が必要だと注意しています。
  • 共通のコマンドには、文脈長、バッチ処理、temperature/top-p/top-k、ペナルティなどの具体的な推論パラメータが含まれており、生成挙動を制御しようとした形跡があります。
  • 全体として、Qwen 3.5 から 3.6 へのアップグレードが「リサーチ→Webアプリ」タスクの性能を改善するかどうかを、開発者が判断するための実用的でユーザー主導の評価指標になっています。
Comparison Qwen 3.6 35B MoE vs Qwen 3.5 35B MoE on Research Paper to WebApp

注: 1つ目はQwen3.5 35B MoE(左)で、2つ目はQwen3.6(右)です

みなさんこんにちは

Qwen3.6 35B MoE と Qwen3.5 35B MoE を簡単に比較してみました。推論(reasoning)はオフにして、llama.cpp と同じ量子化(quant)で unsloth 4 K_XL GGUF を使用しています。

1つ目が Qwen3.5 の結果で、2つ目が Qwen3.6 です。

判断は皆さんにお任せします。何か結論を出すには、もう少し実験が必要です。

私は、以前に qwen3.5 35B で作ったのと同じスキルを使いました。
statisticalplumber/research-webapp-skill

u/echo off title Llama Server :: Set the model path set MODEL_PATH=C:\Users\Xyane\.lmstudio\models\unsloth\Qwen3.6-35B-A3B-GGUF\Qwen3.6-35B-A3B-UD-Q4_K_XL.gguf echo Starting Llama Server... echo Model: %MODEL_PATH% llama-server.exe -m "%MODEL_PATH%" --chat-template-kwargs "{
"enable_thinking": false}" --jinja -fit on -c 90000 -b 4096 -ub 1024 --reasoning off --presence-penalty 1.5 --repeat-penalty 1.0 --temp 0.6 --top-p 0.95 --min-p 0.0 --top-k 20 --keep 1024 -np 1 if %ERRORLEVEL% NEQ 0 ( echo. echo [ERROR] Llama server exited with error code %ERRORLEVEL% pause ) 
submitted by /u/dreamai87
[リンク] [コメント]