Qwen3.6-27Bの「Uncensored Aggressive」版がK_P量子化で登場

Reddit r/LocalLLaMA / 2026/4/23

📰 ニュースDeveloper Stack & InfrastructureTools & Practical UsageModels & Research

要点

  • Qwen3.6の27B「Uncensored Aggressive」版が公開され、拒否(refusal)が0/465で、無改変のオリジナル挙動を保ったまま完全にアンセンサー化されているとされています。
  • 提供されるのはK_P量子化(Q8_K_P〜Q2_K_Pなど)を含むGGUF系量子モデルで、各モデルに最適化プロファイルを適用することで、品質を落としにくい設計(1〜2段階の品質向上)だと説明されています。
  • ユーザーのテストではループや劣化が起きず期待どおり動作した一方、35B-A3B版よりプロンプトの明確さへの感度が高く、形式・制約・範囲を具体化すると安定するとの指摘があります。
  • 「thinking」無効化は/Qwen3世代のソフトスイッチ(/think等)ではなく、jinjaテンプレート編集またはenable_thinking:falseというkwargで行う必要があるとされています。
  • モデルは27Bの高密度(64層)で、テキストに加え画像・動画のマルチモーダル対応、コンテキストは262K(YaRNで〜1M拡張だが注意)とされています。

35B-A3Bドロップの濃い兄弟モデルがこちらに登場、Qwen3.6 27B Uncensored Aggressiveが出ました!

Aggressive = 拒否なし。NO性格の変更/改変や、それに類するものはありません。これは、Qwenのオリジナルリリースを完全に非検閲の状態でそのまま出したものです

https://huggingface.co/HauhauCS/Qwen3.6-27B-Uncensored-HauhauCS-Aggressive

拒否 0/465*。能力の損失なしで完全にアンロック済み。

自分のテストでは:問題なし。ループなし、劣化なし、すべて期待どおりに動作します。

35B-A3Bと比べて気づいた点が1つあります。このモデルはプロンプトの明確さにやや敏感です。不明確/仕様が足りないプロンプトだと逸れやすいので、形式、制約、範囲をできるだけ明確に書くようにしてください。そうすればレールから外れにくいです。最大限活かすためのFYIです。私には、ソーシャルなやり取りの扱い方からして「コーディング/ STEM優先」のモデルに見えます。

「thinking」を無効にするには、jinjaテンプレートを編集するか、kwarg {"enable_thinking": false} を使ってください。注意点 — Qwen3.6は、Qwen3にあった /think と /no_think のソフトスイッチをサポートしていないので、kwargの方が手段です。

含まれているもの:

- Q8_K_P, Q6_K_P, Q5_K_P, Q4_K_P, IQ4_XS, Q3_K_P, IQ3_M, IQ3_XS, Q2_K_P, IQ2_M

- 視覚サポート用のmmproj

- imatrixで生成されたすべての量子化

K_P量子化の要約(MoEリリースを見逃した人向け):重要度が高い品質をモデル固有の分析で維持するためのカスタム量子化です。各モデルごとに独自に最適化されたプロファイルが用意されています。 実質的に、品質が1〜2量子化レベル分引き上がり(~5〜15%)ファイルサイズが大きくなる程度です。llama.cpp、LM Studio、GGUFを読む何にでも完全互換です(予告:Ollamaは起動まで少し難しいかもしれません)。

クイックスペック:

- 27Bのdense

- 64層 — 16 ×(3 × DeltaNet + 1 × Gated Attention)レイアウト

- 48の線形アテンション + 16のフルsoftmaxアテンション(3:1比、MoEと同じ)

- 262Kコンテキスト(ネイティブ。YaRNで~1Mまで拡張可能ですが注意 — llama.cppのYaRNは静的で、短いコンテキストの性能を損ねることがあります)

- マルチモーダル(テキスト + 画像 + 映像)

私が使っているサンプリングパラメータ:

temp=1.0, top_k=20, top_p=0.95, min_p=0, presence_penalty=0, repetition_penalty=1.0

(Qwen 3.6は、次のように推奨を更新しています:thinking用のpresence_penaltyは3.5の1.5ではなく0.0です。thinkingしないモードではそれでも1.5が必要です。完全な設定と、そこに関する私の所見はHFのREADMEにあります。)

注:llama.cppでは --jinja フラグを使ってください。K_P量子化は、LM Studioの量子化列で「?」として表示される場合があります。これは完全に見た目の問題で、モデルは問題なくロードされ実行できます。

HFのハードウェア互換性ウィジェットでもK_Pは認識されないため、「View +X variants」をクリックするか、Filesとversionsに移動してすべてのダウンロードを確認してください。

自分のすべてのモデル: HuggingFace-HauhauCS

さらに、新しいDiscordサーバーもあります。リンクはHFリポジトリに載っています。アップデート、ロードマップ、プロジェクト、または雑談のためにぜひ参加してください。

いつも通り、みなさんがリリースを楽しんでくれることを願っています!

* = 自動および手動の拒否ベンチマークの両方でテストしましたが、見つからない結果でした。ただしリリースはかなり早かったので、もし何かを引っかけてしまってそれがあなたの用途にとって邪魔になるようなら、Discordに参加して報告してください。次の改訂でそれに取り組めるようにします。

submitted by /u/hauhau901
[link] [comments]