AI Navigate

Qwen3.5-9B-Claude-4.6-Opus-Uncensored-v2-Q4_K_M-GGUF

Reddit r/LocalLLaMA / 2026/3/22

💬 オピニオンTools & Practical Usage

要点

  • この投稿は、複数の Qwen3.5-9B バリアントを未検閲のローカル AI モデルに統合するための、コミュニティ主導の取り組みを説明し、得られた GGUF リリースへのリンクを提供しています。
  • 最良のパフォーマンスのための LM Studio 0.4.7(ビルド4)設定の推奨セットを挙げており、システムプロンプト、0.7 の温度、Top K 20、Repeat Penalty: 無効または 1.0、Presence Penalty 1.5、Top P 0.8、Min P 0.0、Seed 3407 を含みます。
  • Jackrong および HauhauCS による Qwen3.5-9B バリアントの貢献とデータセットのリリースを挙げ、協調的でクロスソースなアプローチを示しています。
  • RTX 3060 で約 42 トークン/秒のスループットを報告し、llama-server はさらに高速になる可能性があると指摘し、他の人にもテストして結果を共有するよう呼びかけています。

RedditとHuggingFaceの一部の人々からの依頼マージです。彼らは強力なGPUを持っておらず、検閲なしのスマートなローカルAIで大きな文脈ウィンドウを持ちたいと考えています。

モデルはここにあります: https://huggingface.co/LuffyTheFox/Qwen3.5-9B-Claude-4.6-Opus-Uncensored-v2-GGUF

最良のモデル性能のためには、LM Studio 0.4.7 (ビルド 4) で以下の設定を使用してください:

  1. このシステムプロンプトを使用: https://pastebin.com/pU25DVnB
  2. 温度: 0.7
  3. Top K サンプリング: 20
  4. リピートペナルティ: (無効) または 1.0
  5. プレゼンスペナルティ: 1.5
  6. Top P サンプリング: 0.8
  7. 最小 P サンプリング: 0.0
  8. シード: 3407

最終的に、Jackrong が作成したこの素晴らしいモデルをマージする方法を見つけました: https://huggingface.co/Jackrong/Qwen3.5-9B-Claude-4.6-Opus-Reasoning-Distilled-v2-GGUF

HauhauCS が作成したこの検閲なしモデルと共に: https://huggingface.co/HauhauCS/Qwen3.5-9B-Uncensored-HauhauCS-Aggressive

マージ処理中、Qwen 3.5 9B アーキテクチャのウェイトを Float32 精度のテンソルとして、すべてのトレーニングデータと精度を保持します。

現在、このデータセットで訓練された、最小で、最速で、最も賢い検閲なしモデルを手に入れました: https://huggingface.co/datasets/Roman1111111/claude-opus-4.6-10000x

私の RTX 3060 では LM Studio で 1 秒あたり 42 トークンを得ました。llama-server ではさらに速く動作します。

お楽しみください。結果を共有してください ^_^。より多くの人がテストできるように、投票/再投稿をお忘れなく。

投稿者: /u/EvilEnginer
[リンク] [コメント]