RedditとHuggingFaceの一部の人々からの依頼マージです。彼らは強力なGPUを持っておらず、検閲なしのスマートなローカルAIで大きな文脈ウィンドウを持ちたいと考えています。
モデルはここにあります: https://huggingface.co/LuffyTheFox/Qwen3.5-9B-Claude-4.6-Opus-Uncensored-v2-GGUF
最良のモデル性能のためには、LM Studio 0.4.7 (ビルド 4) で以下の設定を使用してください:
- このシステムプロンプトを使用: https://pastebin.com/pU25DVnB
- 温度: 0.7
- Top K サンプリング: 20
- リピートペナルティ: (無効) または 1.0
- プレゼンスペナルティ: 1.5
- Top P サンプリング: 0.8
- 最小 P サンプリング: 0.0
- シード: 3407
最終的に、Jackrong が作成したこの素晴らしいモデルをマージする方法を見つけました: https://huggingface.co/Jackrong/Qwen3.5-9B-Claude-4.6-Opus-Reasoning-Distilled-v2-GGUF
HauhauCS が作成したこの検閲なしモデルと共に: https://huggingface.co/HauhauCS/Qwen3.5-9B-Uncensored-HauhauCS-Aggressive
マージ処理中、Qwen 3.5 9B アーキテクチャのウェイトを Float32 精度のテンソルとして、すべてのトレーニングデータと精度を保持します。
現在、このデータセットで訓練された、最小で、最速で、最も賢い検閲なしモデルを手に入れました: https://huggingface.co/datasets/Roman1111111/claude-opus-4.6-10000x
私の RTX 3060 では LM Studio で 1 秒あたり 42 トークンを得ました。llama-server ではさらに速く動作します。
お楽しみください。結果を共有してください ^_^。より多くの人がテストできるように、投票/再投稿をお忘れなく。
[リンク] [コメント]




