Qwen3.6-35B-A3B の非公開(uncensored)・アグレッシブ版が K_P クォントで登場!

Reddit r/LocalLLaMA / 2026/4/17

📰 ニュースSignals & Early TrendsTools & Practical UsageModels & Research

要点

  • Qwen3.6-35B-A3B の「Aggressive」非公開(uncensored)バリアントが Hugging Face で公開されました。拒否は 0/465 を主張しており、先行の 3.5-35B リリースからの能力低下はないとしています。一方で、それ以外は変更されていないとされています。
  • このリリースには、複数の K_P 量子化(quant)GGUF オプション(例:Q8/Q6/Q5/Q4_K_P など)に加えて、視覚対応の mmproj が含まれます。これらのクォントはすべて imatrix を用いて生成されています。
  • K_P クォントはモデル固有で、分析に基づいた量子化プロファイルとして説明されており、重要な部分で品質を維持することを目的としています。見積もりでは、量子化レベルに対して 1〜2 段階程度の品質向上が得られ、ファイルサイズは概ね 5〜15% 増加するとのことです。また、 llama.cpp やその他の GGUF リーダーとの互換性も維持されています。
  • ユーザー向けの注意として、「thinking(思考)」を無効化するには、llama.cpp の Jinja テンプレートを編集するか、もしくは {"enable_thinking": false} を渡す必要があるとされています。加えて LM Studio では、量子化(quant)列に K_P が「?」として表示される場合があっても、モデルは正しく動作するはずだと述べています。
  • また、この投稿では HF 側のツールがハードウェア互換性ウィジェットで K_P を認識できない可能性があるとも触れており、ユーザーはリポジトリのバリアント一覧と、新設の Discord(更新情報やロードマップの議論向け)を参照するよう案内されています。

Qwen3.6のアップデートが来ました。35B-A3BのAggressiveバリアントで、私の3.5-35Bリリースと同じMoEサイズですが、より新しい3.6ベースです。

Aggressive = 不拒否(拒否なし)です。性格の変更/改変や、それに類するものは一切ありません。これは、単に完全に無修正(uncensored)にされたQwenのオリジナルリリースそのものです。

https://huggingface.co/HauhauCS/Qwen3.6-35B-A3B-Uncensored-HauhauCS-Aggressive

0/465件の拒否。能力の低下なしで完全にアンロック済み。

私自身のテスト結果:問題なし。ループなし、劣化なし、すべて期待通りに動作します。

「thinking(思考)」を無効にするには、jinjaテンプレートを編集するか、単にこのkwargs {"enable_thinking": false} を使ってください。

含まれているもの:

- Q8_K_P, Q6_K_P, Q5_K_P, Q4_K_P, Q4_K_M, IQ4_NL, IQ4_XS, Q3_K_P, IQ3_M, Q2_K_P, IQ2_M

- 視覚サポート用のmmproj

- imatrixで生成したすべての量子化(quants)

K_P Quantsの要約(122Bリリースを見逃した人向け):モデル固有の分析を使って、品質が最も重要なところを保つためのカスタムquantsです。各モデルごとに、個別に最適化されたプロファイルがあります。 実質、品質が1~2量子化レベル分向上しつつ、ファイルサイズは約5~15%大きくなる程度です。llama.cpp、LM Studio、GGUFを読むあらゆるものと完全互換です(Ollamaは起動に少し手間がかかる場合があります)。

クイックスペック:

- 合計35B / 有効約3B(MoE — 256 experts、トークンごとに8つをルーティング)

- 262Kコンテキスト

- マルチモーダル(テキスト + 画像 + 映像)

- ハイブリッド注意:線形 + softmax(3:1比)

- 40層

テスト中に使っていたサンプリングパラメータの例:

temp=1.0, top_k=20, repeat_penalty=1, presence_penalty=1.5, top_p=0.95, min_p=0

ただし、thinkingモードとnon-thinkingモードで設定が異なるので、公式のQwen推奨設定も必ず確認してください :)

注:llama.cppでは--jinjaフラグを使ってください。K_P quantsは、LM Studioの量子化カラムで「?」として表示されることがあります。見た目上の問題だけで、モデルのロードと実行は問題なく行えます。

HFのハードウェア互換ウィジェットでもK_Pは認識されないため、「View +X variants」をクリックするか、「Files and versions」に移動してすべてのダウンロードを確認してください。

私のすべてのモデル:HuggingFace-HauhauCS

さらに新しく:Discordができました。多くの人が求めていたので :) リンクはHFのリポジトリ内にあります。アップデート、ロードマップ、プロジェクト、あるいは雑談目的でもぜひ参加してください。

皆さんがリリースを楽しめることを願っています。

submitted by /u/hauhau901
[link] [comments]