Qwen3.6 35Bから得られたWeb OSの結果は、私のノートPCで試した中で間違いなく最良だった

Reddit r/LocalLLaMA / 2026/4/17

💬 オピニオンSignals & Early TrendsTools & Practical UsageModels & Research

要点

  • Redditのユーザーが、Qwen3.6 35Bモデルが自分のノートPC上で「web OS」性能として非常に優れた結果を出したと報告している。以前に試したQwen3のコーダーモデルでは約70%だったのに対し、今回は約98%の使いやすさ(usability)を達成したという。
  • テストでは、38kのコンテキストウィンドウを使い、OpenCodeワークフローと量子化済み重み(Q4_K_XL)によって、web-OSライクなコードを生成した(約2,100行)。
  • ユーザーは、これまで試してきた他の最先端モデルとも結果を比較し、自分の環境におけるWeb OSの結果としてQwen3.6 35Bが最良だと主張している。
  • 実行は、llama-serverによるローカル推論で行われ、温度/top-pの設定、並列数、量子化関連のフラグなどの具体的な実行パラメータを用いた。ハードウェアは24GBのDDR5とRTX 4050で構成されている。
  • この投稿の主な役割は、形式的にリリースされたベンチマークというより、ローカルでホストしたLLMのコーディングエージェント/web-OS能力が実際にどれだけ改善しているかを示す、早期の実地的な手がかりとして機能する点にある。

これはこのモデルでの私の最初のテストで、Qwenには感心しました。以前の最高結果がqwen3 next coderで70% usableだったのに対して、これはWeb OSとして98% usableだと評価します。

はい、彼らはこれらの一般的なプロンプトでモデルを学習しているのは分かっていますが、それでもSOTAモデルと比べても、私が見た中ではこれが最良の結果です。

使用コード量:約2100行、opencodeでコンテキスト38k

ハードウェア:24GB ddr5 + RTX4050

量子化:q4_k_xl

tg - 25 tk/s

llama-server \

--model /run/media/loq/New\ Volume/Models/unsloth/Qwen3.6-35B-A3B-GGUF/Qwen3.6-35B-A3B-UD-Q4_K_XL.gguf \

--port 1234 \

--host "0.0.0.0" \

--jinja \

-cmoe \

-t 8 -fa 1 -ctk q8_0 -ctv q8_0 \

--parallel 1 --fit-target 200 \

--temp 0.6 --top-p 0.95 --min-p 0.0 --top-k 20 --presence-penalty 0 --repeat-penalty 1.0

投稿者 /u/Idontknow3728
[link] [comments]