おお、これはすごい。私はその小型の派生機 122b/35b/27b、gpt-oss 120b、StepFun 3.5、MiniMax M2.5、Qwen Coder 80B、そして新しい Super Nemotron 120b のすべてを試してみました。大きな Qwen 3.5 の知識とバグの少なさには及びません。
はい、これは全ての中で最も遅いのですが、トークン生成速度で失う分を、問題を修正するための複数回のターンが不要なこと、そして果てしない思考を待つ必要がないことで取り戻しています。そして、より小さな派生機や StepFun 3.5 とは対照的に、その思考は実際には非常に簡潔です。
そして、それらの中で一番いいのは:AesSedai の quant IQ2_XS を使っています。この端末はたったの123GiBだ!すべての他の機種は少なくとも IQ4_XS(StepFun 3.5、MiniMax M2.5)か、Q6_K(Qwen 3.5 122b/35b/27b、Qwen Coder 80b、Super Nemotron 120b)を使っています。
[リンク] [コメント]