これはこのモデルでの私の最初のテストで、Qwenには感心しました。以前の最高結果がqwen3 next coderで70% usableだったのに対して、これはWeb OSとして98% usableだと評価します。
はい、彼らはこれらの一般的なプロンプトでモデルを学習しているのは分かっていますが、それでもSOTAモデルと比べても、私が見た中ではこれが最良の結果です。
使用コード量:約2100行、opencodeでコンテキスト38k
ハードウェア:24GB ddr5 + RTX4050
量子化:q4_k_xl
tg - 25 tk/s
llama-server \
--model /run/media/loq/New\ Volume/Models/unsloth/Qwen3.6-35B-A3B-GGUF/Qwen3.6-35B-A3B-UD-Q4_K_XL.gguf \
--port 1234 \
--host "0.0.0.0" \
--jinja \
-cmoe \
-t 8 -fa 1 -ctk q8_0 -ctv q8_0 \
--parallel 1 --fit-target 200 \
--temp 0.6 --top-p 0.95 --min-p 0.0 --top-k 20 --presence-penalty 0 --repeat-penalty 1.0
[link] [comments]



