| Qwen3.6-35B-A3Bを紹介します:オープンソース化! スパースなMoEモデルで、総パラメータ数35B、アクティブは3Bです。Apache 2.0ライセンス。 - アクティブサイズが10倍のモデルに匹敵するエージェント型コーディング - 強力なマルチモーダル知覚と推論能力 - マルチモーダル思考 + 非思考モード 効率的。強力。多用途。 ブログ:https://qwen.ai/blog?id=qwen3.6-35b-a3b Qwen Studio:chat.qwen.ai HuggingFace:https://huggingface.co/Qwen/Qwen3.6-35B-A3B ModelScope:https://modelscope.cn/models/Qwen/Qwen3.6-35B-A3B [リンク] [コメント] |
Qwen3.6-35B-A3Bがリリース!
Reddit r/LocalLLaMA / 2026/4/16
📰 ニュースSignals & Early TrendsModels & Research
要点
- Qwen3.6-35B-A3Bは、オープンソースのスパースMoEモデルとしてリリースされました。総パラメータ数は35Bで、実行時に稼働するのは3Bです。
- リリースでは、エージェント的なコーディング性能が強力であり、稼働サイズが約10倍のモデルに匹敵すると主張しています。
- 思考モードと非思考モードの両方を含むマルチモーダルな思考への対応など、堅牢なマルチモーダル知覚と推論を強調しています。
- 本モデルは、Qwenのブログおよびインターフェース(Qwen Studio)に加えて、Hugging FaceおよびModelScopeでも提供されており、ローカルでの導入や各種プラットフォームでの採用が可能です。




