| 私は通常は Opus や Codex でしか任せないようなワークロードを動かしてきましたが、3.6 が本当に能力を発揮できることを確認できます。もちろん、これらのモデルの水準にはまだ届いていませんが、間違いなく「役に立つ」領域を越えています。さらに、この内容を M5 Max 128GB の 8bit、3K PP、oMLX + Pi.dev 上で 100 TG で動かす速度が驚異的です。 ただし、必ず `preserve_thinking` をオンにしてください。詳細は こちら を確認してください。 [リンク] [コメント] |
Qwen 3.6のパフォーマンス向上は本物。ただし適切に設定しているか確認しよう
Reddit r/LocalLLaMA / 2026/4/18
💬 オピニオンSignals & Early TrendsTools & Practical UsageModels & Research
要点
- Redditの投稿者は、Qwen 3.6が実際のワークロードで明確なパフォーマンス向上を示したと報告しています。
- 投稿者は、OpusやCodexと同等の水準ではないものの、実用性の壁を確実に越えたと強調しています。
- M5 Max 128GB上で8bit・3K構成にして、oMLXやPi.devを使うことで非常に高い推論速度が出たとも述べています。
- 改善には設定の適切さが重要で、特に`preserve_thinking`を有効にすることを推奨しています。




