Qwen3.5-35Bはローカルモデルの中でも確実に最高クラスの1つ(期待以上の実力を発揮)

Reddit r/LocalLLaMA / 2026/3/15

💬 オピニオンDeveloper Stack & InfrastructureTools & Practical UsageModels & Research

要点

  • Redditの投稿は、Qwen3.5-35B MOEが最高クラスのローカルモデルの1つであり、小型のファインチューニング済みモデルと比較しても期待以上の性能を発揮できると主張しています。
  • 著者は性能を示すための具体的なテスト設定を共有しています(reasoningを無効化したllama-serverと --fit on、Qwen3.5-35B-A3B-GGUF、CLI Qwen-code、RTX 5080 Mobile、コンテキスト70K、PP 373、TG 53.57)。”
  • テスターはこのモデルを使って研究論文のための対話型ビジュアルを備えたビジュアルアプリを設計し、別の大規模なReactアプリに触発された新しい論文用のウェブアプリを生成するよう依頼しました。
  • 投稿はRedditのギャラリーとコメントへのリンクを示しており、ベンチマークだけでなくローカルLLMの実用的な実世界での使用を強調しています。
  • 全体として、ローカルLLMが対話型アプリケーションやデモを構築する際の実用的な実現性を示しています。
Qwen3.5-35Bはローカルモデルの中でも最高クラスの1つ(期待以上の実力を発揮)

私は、多くのモデル、特に小型のファインチューニング済みモデルが自分の実力以上のパフォーマンスを発揮しているとよく耳にしますし、それらのモデルがQwen3.5-35Bを遥かに凌ぐと主張する人もいます。私も、小型のファインチューニング済みモデルのいくつか、そして当然ながらより大きなモデルが素晴らしいと認めます。

しかし、Qwen3.5-35B MOEが私を本当に驚かせた経験を共有したいと思います。以下に、詳しく説明するいくつかの断片を添付します:

モデル: Qwen3.5-35B-A3B-GGUF\Qwen3.5-35B-A3B-UD-Q4_K_L.gguf
サーバー: reasoningを無効化したllama-serverと--fitオン
CLI: Qwen-code
GPU: Nvidia RTX 5080 Mobile
使用コンテキスト: 70K
PP: 373
TG: 53.57

テスト内容
私は研究論文を提供し、対話型のビジュアルで美しいビジュアルアプリを作成するよう依頼しました。また、別のアプリ(それ自体が大規模なReactアプリ)を参照として提供し、新しい論文のウェブアプリを生成するよう依頼しました。

使用した研究論文: https://arxiv.org/html/2601.00063v1

投稿者 /u/dreamai87
[リンク] [コメント]

Qwen3.5-35Bはローカルモデルの中でも確実に最高クラスの1つ(期待以上の実力を発揮) | AI Navigate