皆さん、こんにちは。Reddit のこのスレッドでの私の前回の投稿は、多くの高評価と温かく素晴らしいフィードバックを受け取りました。皆さん、本当にありがとうございます。今回はさらにワークフローを改善・洗練するため、Qwen 3.5 9B モデルをさらに統合することにしました。
Claude Opus によるゼロ拒否で完全に検閲なしの Omnicoder を蒸留して公開:
https://huggingface.co/LuffyTheFox/Omnicoder-Claude-4.6-Opus-Uncensored-GGUF
Q4_K_M の量子化と Q8_0 の量子化が現在利用可能です。私は Q8_O の量子化のみをテストしました。かなり堅牢です。
これは Add Difference のマージによって作成されました: https://pastebin.com/xEP68vss
GGUF ヘッダーとメタデータ構造を互換性のために保持しました。
正直に言うと、Claude Opus 4.6 がいかに愚かであるかに私は驚きました。 この単純な Python スクリプトを、huggingface アップロード機能とチャットテンプレート変更機能を GGUF ファイルに追加するよう頼んだとき、ほぼ 10 回も壊されました。
したがって私のマージは以下のモデルを用いて作成されました:
1) Claude Opus 由来の蒸留データセットで訓練された Jackrong モデルの最新アップデート: https://huggingface.co/Jackrong/Qwen3.5-4B-Claude-4.6-Opus-Reasoning-Distilled-v2-GGUF
2) HauhauCS の検閲なし Qwen 3.5 9B モデル https://huggingface.co/HauhauCS/Qwen3.5-9B-Uncensored-HauhauCS-Aggressive
3) Tesslate 製の Omnicoder: https://huggingface.co/Tesslate/OmniCoder-9B-GGUF
4) 基本として Bartowski の量子化を使用しました: https://huggingface.co/bartowski/Qwen_Qwen3.5-9B-GGUF
現時点で Qwen 3.5 9B アーキテクチャに基づく小さな 9B モデルに関して、UGI(検閲されていない一般知能)という点では現在の最高のものだと思います。
Open Claw で試して結果を共有してください。
[リンク] [コメント]




