| I see a lot of people worried about the possibility of QWEN 3.6 397b not being released. However, if I look at the small percentage of variation between 3.5 and 3.6 in many benchmarks, I think that simply quantizing 3.6 to "human" dimensions (Q2_K_XL is needed to run on an RTX 6000 96GB + 48GB) would reduce the entire advantage to a few point zeros. I'm curious to see how the smaller models will perform towards Gemma 4, where competition has started. [link] [comments] |
Qwen 3.5 397B vs Qwen 3.6-Plus
Reddit r/LocalLLaMA / 4/4/2026
💬 OpinionSignals & Early TrendsModels & Research
Key Points
- 投稿者は、Qwen 3.6 397Bがリリースされない可能性を懸念する声に対し、Qwen 3.5と3.6のベンチマーク差は小さいため大きな不安は不要だと述べています。
- 具体的には、3.6を量子化(例:Q2_K_XL。RTX 6000 96GB + 48GBでの実行に言及)することで、想定される優位性がごくわずかな差(数ポイント程度)に縮まる可能性を示唆しています。
- また、より小型のモデルがGemma 4に対してどの程度の性能を出せるかに注目しています。
- 全体として、モデル世代間の性能差と、量子化による実用上の性能/効率の変化を比較する観点が中心です。
Related Articles

Black Hat Asia
AI Business
Graph Neural Ordinary Differential Equations
Dev.to
Explainable Causal Reinforcement Learning for deep-sea exploration habitat design with zero-trust governance guarantees
Dev.to

Know3D lets users control the hidden back side of 3D objects with text prompts
THE DECODER
Gemma 4 fixes in llama.cpp
Reddit r/LocalLLaMA