M5 MaxのMacBook Pro(128GB)でQwen3.6-35Bを8ビット量子化&64Kコンテキスト、OpenCodeで動かしたらClaude級に良かった話

Reddit r/LocalLLaMA / 2026/4/19

💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage

要点

  • 著者は、いくつかのローカル言語モデルをテストした上で、LM Studio上で新たに利用できるようになったQwen 3.6を試したと述べています。
  • M5 MaxのMacBook Pro(128GB RAM)で、Qwen3.6-35Bを8ビット量子化し、64Kコンテキストで動かしたところ「非常に高速」だと主張しています。
  • モデルは、複数のツール呼び出しを含む“長い調査”のようなタスクで高い性能を示したと説明されています。
  • 著者はClaudeと比較しても良好な結果だとし、日常的な主力(daily driver)になる可能性があると述べています。
  • ただし投稿は「信じてほしい(trust me bro)」型の逸話として明確に位置づけられており、正式なベンチマークや統制された検証ではありません。

もちろんこれはただの信じてくれ投稿(trust me bro)ですが、さまざまなローカルモデル(Gemma4を2つほど、Qwen3 Coder Next、Nemotron)をテストしていて、LM Studio上に新しいQwen3.6が出てくるのを見たので、つなぎました。

とても感心しました。反応が超速く、ツール呼び出しが多い長い調査タスクにも対応します(たとえばAndroidアプリでR8がなぜ一部のシリアライズを壊してしまっていたのかを調べさせました)。回答も的確です。これが毎日のメイン端末になると思います(以前はOpenCode zen経由でKimi k2.5でした)。

FeelsGoodman。これでもうコードベースを見知らぬ提供者に送って「信頼」する必要がありません。

投稿者: /u/Medical_Lengthiness6
[link] [comments]