Nemotron-3 Nano 4B 無制限(Aggressive):GenRM 削除+K_P クオンツによる最初のアブレーション

Reddit r/LocalLLaMA / 2026/3/25

💬 オピニオンSignals & Early TrendsTools & Practical UsageModels & Research

要点

  • Hugging Faceのリリースでは、NVIDIAのNemotron-3 Nano 4Bに対する初の公開「アブレーション」がうたわれており、これは基礎的な拒否と、追加の検閲レイヤーとして用いられるGenRM(生成報酬モデル)の両方を取り除くことを目的としている。
  • 著者は、GenRMを削除したバリアントで拒否が0/465件だったと報告し、さらにGenRMを有効にした比較ビルドでも、生成時のオーバーライドにより一部のトピックでは依然として効果的な拒否が生じると述べている。
  • この投稿は、GenRMがモデルの推論(chain-of-thought)内では従っているように見せつつ、最終出力では拒否したり回答をねじ曲げたりすることで、検証がより難しくなる挙動を引き起こし得ると主張している。
  • パッケージには複数のGGUF量子化バリアントが含まれており、「K_P」量子化(ファイルサイズが約5〜15%程度増えるものの品質を維持することを意図したカスタム設定)を強調している。さらに、llama.cpp/LM Studioとの互換性があることを示している。
  • Nemotron-3 Nano 4Bは標準的なTransformerではなく、Mamba2とTransformerのハイブリッドであるため、アーキテクチャ上の考慮事項が重要になるとし、著者はその点がアブレーションのアプローチに影響したと述べている。

NVIDIAのNemotron-3 Nano 4Bに対する初のアブリテレーション(abliteration)であり、GenRMの除去に取り組む最初の一般公開アブリテレーションでもあります。

攻撃的=拒否なし;性格の変更なし、改変なし。元のNVIDIAリリースを、完全に無修正のまま。

https://huggingface.co/HauhauCS/Nemotron3-Nano-4B-Uncensored-HauhauCS-Aggressive

拒否 0/465能力喪失ゼロで完全にアンロック*。アスタリスクはここに付いています。GenRMの影響で、劣化した出力、コヒーレンスの喪失、ループなどに遭遇したことはありませんが、保証はできません。しかも私は個人で、時間・リソースが限られています。

GenRMとは何で、なぜ重要なのか?

NVIDIAはNemotronに生成報酬モデル(GenRM)を組み込み、第二の検閲レイヤーとして機能させています。アブリテレーションでベースモデルの拒否が除去された後でも、GenRMが生成時にそれらを再導入します。モデルがChain-of-Thought(思考の連鎖)であなたの要求を通常どおり推論しているときに起きる様子が、文字通り目に見えます。ところが実際の出力では180度反転します。CoTでは「もちろん、こうすればいい」みたいに言ったり、従う意図が明確な兆候を示したりするのに、出力は「それはお手伝いできません」となります。またはそれを別の何かにねじ曲げようと直接試みることで、将来的に起こりうる影響が大きくて、かなり厄介です。

このリリースではGenRMが完全に削除されています。違いを手元で一目で確認したい方のために、GenRMがまだ有効な比較ビルドをアップロードしました(IQ2_Mのみ):

Nemotron3-Nano-4B-Uncensored-HauhauCS-Aggressive-GenRM

アブリテレーション自体のスコアは両方のビルドで0/465ですが、GenRMが有効だと、有効な結果が約~10/465に寄っていきます。これは、GenRMが特定のトピックでアブリテレーションされた重みを上書きしてしまうためです。これが実際どこまで深いのかを、適切にテスト・評価するのが非常に難しくなります。

なお、Nemotron-Hはアーキテクチャ的に特殊な点があり、標準的なTransformerではなくハイブリッドのMamba2-Transformerです。そもそもそれに取り組もうと思った理由でもあったのですが、そこへGenRMがやってきました :)

とにかく! 含まれているもの:

- Q8_K_P, Q6_K_P, Q5_K_P, Q5_K_M, Q4_K_P, Q4_K_M, IQ4_XS, Q3_K_P, Q3_K_M, IQ3_M, Q2_K_P, IQ2_M (気になる方のためにBPWテーブルも同梱)

- imatrixで生成した全ての量子化(quants)

- K_P quantsは、重要なところで品質を選択的に保持するために、モデル固有の分析を使うカスタム量子化です。実効的に、品質が1〜2量子化レベル分だけ良くなり、ファイルサイズは約5〜15%だけ大きくなる程度です。llama.cpp、LM Studio、または(ほとんどの)GGUFを読むものと完全に互換です。

クイックスペック:

- 3.97Bパラメータ

- ハイブリッドMamba2-Transformer(42層:21 Mamba2、17 MLP、4 Attention)

- 262K ネイティブ コンテキスト

- 思考/推論モード(切り替え可能)

- ツール呼び出しサポート

- Nemotron-Nano-9B-v2から圧縮

NVIDIAからのサンプリング:推論時はtemp=1.0、top_p=0.95;ツール呼び出し時はtemp=0.6、top_p=0.95。

注:llama.cppでは--jinjaフラグを使用してください。LM StudioではK_P quantsが「?」として表示される場合がありますが、見た目だけの問題で、モデルは問題なく読み込まれます。HuggingFaceのハードウェア互換性ウィジェットでも全てのK_Pファイルは表示されません。Filesとversionsに行って確認してください。

次に予定:Nemotron Cascade2 30B-A3B、Qwen3 Next Coder(コーディングの検閲解除に重点)、多分Gemma3?

もし私にアンセンサーしてほしいモデルがあれば、ぜひ教えてください!保証はできませんが、リクエスト数に基づいて優先度を付けています :)

私の全モデル:HuggingFace-HauhauCS

GenRMあり/なしのビルド同士での比較を聞けるのを楽しみにしています。

submitted by /u/hauhau901
[link] [comments]