広告

Gemma 4 E4B + E2B 無修正(アグレッシブ)— GGUF + K_P クオンツ(マルチモーダル:Vision、Video、Audio)

Reddit r/LocalLLaMA / 2026/4/3

📰 ニュースSignals & Early TrendsTools & Practical UsageModels & Research

要点

  • 開発者が、Hugging Face上で「Gemma 4」のGGUF無修正・アグレッシブ系バリアントを2種類リリースした。E4B(4B)とE2B(2B)で、0/465件の拒否と、元のGoogleリリースに対する能力低下なしを主張している。
  • 両モデルはネイティブなマルチモーダルで、テキストに加えて視覚・動画・音声をサポートすると説明されており、視覚/音声対応のためのmmprojファイルが同梱されている。
  • リリースには、品質を維持しつつ llama.cpp/LM Studio およびその他のGGUFリーダーと互換性を保つことを目的として、imatrixで生成された複数のGGUF量子化オプション(K_Pクオンツを含む)が用意されている。
  • 記事では、実用面での互換性の癖に触れている(例:Hugging FaceのハードウェアウィジェットがK_P系を認識しない、LM Studioで外見上「?」が表示される可能性など)。ただし、モデルは正しくロードできるとしている。
  • 著者は、今後予定されている追加のGemma 4バリアント(E31B dense と E26B-A4B MoE)を予告し、Googleが用いた新しい「生成報酬モデル」系の手法(GenRMのようなもの)が無修正化の難しさに影響している、という文脈を示している。

私の最初のGemma 4のuncensor(検閲解除)モデルが出ました。今日、2つのモデルを公開します。E4B(4B)とE2B(2B)。どちらもAggressive(攻撃的)バリアントで、どちらも完全にマルチモーダルです。

Aggressiveとは拒否(refusal)が一切ないことを意味します。私は人格変更や改変は一切行いません。元のGoogleのリリースそのまま、ただ検閲なし(uncensored)なだけです。

Gemma 4 E4B(4B): https://huggingface.co/HauhauCS/Gemma-4-E4B-Uncensored-HauhauCS-Aggressive

Gemma 4 E2B(2B): https://huggingface.co/HauhauCS/Gemma-4-E2B-Uncensored-HauhauCS-Aggressive

0/465の拒否* どちらのモデルでも。能力損失ゼロで完全にアンロックされています。

これらはネイティブでマルチモーダルなので、テキスト、画像、動画、音声がすべて1つのモデルに入っています。vision/audio対応のためのmmprojファイルも同梱されています。

含まれているもの:

E4B: Q8_K_P, Q6_K_P, Q5_K_P, Q5_K_M, Q4_K_P, Q4_K_M, IQ4_XS, Q3_K_P, Q3_K_M, IQ3_M, Q2_K_P + mmproj

E2B: Q8_K_P, Q6_K_P, Q5_K_P, Q4_K_P, Q3_K_P, IQ3_M, Q2_K_P + mmproj

すべての量子化はimatrixで生成しました。K P量子化は、最も重要なところで品質を維持するためのモデル固有の分析を使用しており、実質的に1〜2量子化レベル分だけ優れているのに、ファイルサイズは約5〜15%増えるだけです。llama.cpp、LM Studio、またはGGUFを読み取るあらゆるものと完全互換です(Ollamaはユーザー側で調整が必要かもしれません)。

クイックスペック(両モデル):

- 42層(E4B)/ 35層(E2B)

- 混合スライディングウィンドウ + フルアテンション

- 131Kネイティブコンテキスト

- ネイティブでマルチモーダル(テキスト、画像、動画、音声)

- メモリ効率のためのKV共有層

Googleからのサンプリング:temp=1.0, top_p=0.95, top_k=64。llama.cppでは--jinjaフラグを使用してください。

注:HuggingFaceのハードウェア互換性ウィジェットはK_P量子化を認識しません。そのため、「View +X variants」をクリックするか、Filesとversionsに移動してすべてのダウンロードを確認してください。LM StudioでK_Pに「?」が表示されるのは見た目の問題だけで、モデルは問題なく読み込まれます。

次に来るもの:Gemma 4 E31B(dense)とE26B-A4B(MoE)。 それらに今取り組んでいて、品質に満足したらすぐに公開します。小さいモデルは簡単でしたが、大きいものはもっと注意が必要です。

*Googleは現在、NVIDIAのGenRMに近い技術を使っています。内部の批評家として振る舞う生成報酬モデルで、真に完全な検閲解除はますます難しい分野になっています。これらのモデルは、他のリリースと比べて、長いコンテキストでの手動テスト時間をあまり確保できていません。ほとんどのユーザー(99.999%)はエッジケースに当たらないと思いますが、正直さのためにアスタリスクを付けています。なお、E2Bは2Bモデルです。期待値はそれに合わせてください。サイズの割には素晴らしいですが、7B超のものと張り合うことは期待しないでください。

私の全モデル:HuggingFace-HauhauCS

補足:現在、とてもクールなプロジェクトに取り組んでいます。残りの2つのGemmaモデルを公開したら、すぐにそれを再開します。全部共有できるのが待ちきれません。終わったらすぐにお見せします。

submitted by /u/hauhau901
[link] [comments]

広告