| Qwen3.6 27Bが現在、AAのAgentic IndexでSonnet 4.6に並び、Gemini 3.1 Pro Preview、GPT 5.2、5.3、そしてMiniMax 2.7をも抜き去っているのは狂気じみています。3つのインデックスすべてで伸びを見せましたが、Coding Indexの仕組み上、伸びが本来あるべきほど明確には見えていないと思います。Coding IndexはTerminal Bench HardとSciCodeの2つだけを使っており、どちらも奇妙な選択です。いま出ている3.6モデルの学習がOpenClaw/Hermesのエージェント活用に焦点を当てているのは明らかですが、それにしても、小さなモデルがフロンティアモデルにここまで迫れるのは興味深いですね。Qwen3.6 122Bはたぶんすごいことになるでしょう…… [link] [comments] |
Qwen 3.6 27B、人工分析の「エージェンシー」で大幅な伸び—Sonnet 4.6に並ぶ
Reddit r/LocalLLaMA / 2026/4/24
💬 オピニオンSignals & Early TrendsModels & Research
要点
- Qwen 3.6 27Bは、Artificial AnalysisのAgentic IndexでSonnet 4.6に並び、Gemini 3.1 Pro Preview、GPT 5.2/5.3、MiniMax 2.7など複数の有力モデルを上回ったと報じられています。
- 改善は3つのインデックスすべてに及ぶとされており、エージェンシー性能の広範な向上を示唆しています。
- Coding Indexの評価方法が、Terminal Bench HardとSciCodeのみに依存している点から疑問視されており、コーディング面の改善が適切に見えていない可能性が指摘されています。
- 議論では、Qwen 3.6モデルの最新トレーニングがOpenClaw/Hermesのようなエージェント活用を意識して行われているのではないかと述べられています。
- 全体として、27Bという比較的小規模モデルがエージェンティック評価でフロンティア級に近づいていることが注目点になっています。




