私の最初のGemma 4のuncensor(検閲解除)モデルが出ました。今日、2つのモデルを公開します。E4B(4B)とE2B(2B)。どちらもAggressive(攻撃的)バリアントで、どちらも完全にマルチモーダルです。
Aggressiveとは拒否(refusal)が一切ないことを意味します。私は人格変更や改変は一切行いません。元のGoogleのリリースそのまま、ただ検閲なし(uncensored)なだけです。
Gemma 4 E4B(4B): https://huggingface.co/HauhauCS/Gemma-4-E4B-Uncensored-HauhauCS-Aggressive
Gemma 4 E2B(2B): https://huggingface.co/HauhauCS/Gemma-4-E2B-Uncensored-HauhauCS-Aggressive
0/465の拒否* どちらのモデルでも。能力損失ゼロで完全にアンロックされています。
これらはネイティブでマルチモーダルなので、テキスト、画像、動画、音声がすべて1つのモデルに入っています。vision/audio対応のためのmmprojファイルも同梱されています。
含まれているもの:
E4B: Q8_K_P, Q6_K_P, Q5_K_P, Q5_K_M, Q4_K_P, Q4_K_M, IQ4_XS, Q3_K_P, Q3_K_M, IQ3_M, Q2_K_P + mmproj
E2B: Q8_K_P, Q6_K_P, Q5_K_P, Q4_K_P, Q3_K_P, IQ3_M, Q2_K_P + mmproj
すべての量子化はimatrixで生成しました。K P量子化は、最も重要なところで品質を維持するためのモデル固有の分析を使用しており、実質的に1〜2量子化レベル分だけ優れているのに、ファイルサイズは約5〜15%増えるだけです。llama.cpp、LM Studio、またはGGUFを読み取るあらゆるものと完全互換です(Ollamaはユーザー側で調整が必要かもしれません)。
クイックスペック(両モデル):
- 42層(E4B)/ 35層(E2B)
- 混合スライディングウィンドウ + フルアテンション
- 131Kネイティブコンテキスト
- ネイティブでマルチモーダル(テキスト、画像、動画、音声)
- メモリ効率のためのKV共有層
Googleからのサンプリング:temp=1.0, top_p=0.95, top_k=64。llama.cppでは--jinjaフラグを使用してください。
注:HuggingFaceのハードウェア互換性ウィジェットはK_P量子化を認識しません。そのため、「View +X variants」をクリックするか、Filesとversionsに移動してすべてのダウンロードを確認してください。LM StudioでK_Pに「?」が表示されるのは見た目の問題だけで、モデルは問題なく読み込まれます。
次に来るもの:Gemma 4 E31B(dense)とE26B-A4B(MoE)。 それらに今取り組んでいて、品質に満足したらすぐに公開します。小さいモデルは簡単でしたが、大きいものはもっと注意が必要です。
*Googleは現在、NVIDIAのGenRMに近い技術を使っています。内部の批評家として振る舞う生成報酬モデルで、真に完全な検閲解除はますます難しい分野になっています。これらのモデルは、他のリリースと比べて、長いコンテキストでの手動テスト時間をあまり確保できていません。ほとんどのユーザー(99.999%)はエッジケースに当たらないと思いますが、正直さのためにアスタリスクを付けています。なお、E2Bは2Bモデルです。期待値はそれに合わせてください。サイズの割には素晴らしいですが、7B超のものと張り合うことは期待しないでください。
私の全モデル:HuggingFace-HauhauCS
補足:現在、とてもクールなプロジェクトに取り組んでいます。残りの2つのGemmaモデルを公開したら、すぐにそれを再開します。全部共有できるのが待ちきれません。終わったらすぐにお見せします。
[link] [comments]




