| 私は、多くのモデル、特に小型のファインチューニング済みモデルが自分の実力以上のパフォーマンスを発揮しているとよく耳にしますし、それらのモデルがQwen3.5-35Bを遥かに凌ぐと主張する人もいます。私も、小型のファインチューニング済みモデルのいくつか、そして当然ながらより大きなモデルが素晴らしいと認めます。 しかし、Qwen3.5-35B MOEが私を本当に驚かせた経験を共有したいと思います。以下に、詳しく説明するいくつかの断片を添付します: モデル: Qwen3.5-35B-A3B-GGUF\Qwen3.5-35B-A3B-UD-Q4_K_L.gguf テスト内容 使用した研究論文: https://arxiv.org/html/2601.00063v1 [リンク] [コメント] |
Qwen3.5-35Bはローカルモデルの中でも確実に最高クラスの1つ(期待以上の実力を発揮)
Reddit r/LocalLLaMA / 2026/3/15
💬 オピニオンDeveloper Stack & InfrastructureTools & Practical UsageModels & Research
要点
- Redditの投稿は、Qwen3.5-35B MOEが最高クラスのローカルモデルの1つであり、小型のファインチューニング済みモデルと比較しても期待以上の性能を発揮できると主張しています。
- 著者は性能を示すための具体的なテスト設定を共有しています(reasoningを無効化したllama-serverと --fit on、Qwen3.5-35B-A3B-GGUF、CLI Qwen-code、RTX 5080 Mobile、コンテキスト70K、PP 373、TG 53.57)。”
- テスターはこのモデルを使って研究論文のための対話型ビジュアルを備えたビジュアルアプリを設計し、別の大規模なReactアプリに触発された新しい論文用のウェブアプリを生成するよう依頼しました。
- 投稿はRedditのギャラリーとコメントへのリンクを示しており、ベンチマークだけでなくローカルLLMの実用的な実世界での使用を強調しています。
- 全体として、ローカルLLMが対話型アプリケーションやデモを構築する際の実用的な実現性を示しています。




