Qwen3.6のアップデートが来ました。35B-A3BのAggressiveバリアントで、私の3.5-35Bリリースと同じMoEサイズですが、より新しい3.6ベースです。
Aggressive = 不拒否(拒否なし)です。性格の変更/改変や、それに類するものは一切ありません。これは、単に完全に無修正(uncensored)にされたQwenのオリジナルリリースそのものです。
https://huggingface.co/HauhauCS/Qwen3.6-35B-A3B-Uncensored-HauhauCS-Aggressive
0/465件の拒否。能力の低下なしで完全にアンロック済み。
私自身のテスト結果:問題なし。ループなし、劣化なし、すべて期待通りに動作します。
「thinking(思考)」を無効にするには、jinjaテンプレートを編集するか、単にこのkwargs {"enable_thinking": false} を使ってください。
含まれているもの:
- Q8_K_P, Q6_K_P, Q5_K_P, Q4_K_P, Q4_K_M, IQ4_NL, IQ4_XS, Q3_K_P, IQ3_M, Q2_K_P, IQ2_M
- 視覚サポート用のmmproj
- imatrixで生成したすべての量子化(quants)
K_P Quantsの要約(122Bリリースを見逃した人向け):モデル固有の分析を使って、品質が最も重要なところを保つためのカスタムquantsです。各モデルごとに、個別に最適化されたプロファイルがあります。 実質、品質が1~2量子化レベル分向上しつつ、ファイルサイズは約5~15%大きくなる程度です。llama.cpp、LM Studio、GGUFを読むあらゆるものと完全互換です(Ollamaは起動に少し手間がかかる場合があります)。
クイックスペック:
- 合計35B / 有効約3B(MoE — 256 experts、トークンごとに8つをルーティング)
- 262Kコンテキスト
- マルチモーダル(テキスト + 画像 + 映像)
- ハイブリッド注意:線形 + softmax(3:1比)
- 40層
テスト中に使っていたサンプリングパラメータの例:
temp=1.0, top_k=20, repeat_penalty=1, presence_penalty=1.5, top_p=0.95, min_p=0
ただし、thinkingモードとnon-thinkingモードで設定が異なるので、公式のQwen推奨設定も必ず確認してください :)
注:llama.cppでは--jinjaフラグを使ってください。K_P quantsは、LM Studioの量子化カラムで「?」として表示されることがあります。見た目上の問題だけで、モデルのロードと実行は問題なく行えます。
HFのハードウェア互換ウィジェットでもK_Pは認識されないため、「View +X variants」をクリックするか、「Files and versions」に移動してすべてのダウンロードを確認してください。
私のすべてのモデル:HuggingFace-HauhauCS
さらに新しく:Discordができました。多くの人が求めていたので :) リンクはHFのリポジトリ内にあります。アップデート、ロードマップ、プロジェクト、あるいは雑談目的でもぜひ参加してください。
皆さんがリリースを楽しめることを願っています。
[link] [comments]




