Gemma4:不具合に悩んでいる方へ

Reddit r/LocalLLaMA / 2026/4/9

💬 オピニオンSignals & Early TrendsTools & Practical UsageModels & Research

要点

  • Redditのユーザーが、公式モデルを使用した場合に、同一のllama.cpp設定とエージェンティック・ハーネスの設定にもかかわらず、複数ファイル編集中に「デスループ」のような挙動に入るように見えると報告しています。
  • 同ユーザーは、モデルの「abliteration(抹消)」バリアントのほうがうまく動作し、ループ失敗モードに陥ることなく複数ファイル編集タスクを完了できると主張しています。
  • 彼らは、デフォルトの安全性/ガードレールが自分のワークフローに対して過度に制限的であり、拒否の繰り返しや有害なフィードバックループを引き起こしているのではないかと疑っています。
  • また、abliterationを強めすぎると知能が下がる可能性があるため、「セキュリティ除去」を最大化するのではなく、調整して適切にチューニングすべきだと注意しています。
  • 投稿には、同様の挙動を再現したい人向けに、特定のGGUFモデルへのリンク(paperscarecrow/Gemma-4-31B-abliterated-Q4_K_M)が掲載されています。

消去モデル(abliteration model)を取得しました。セキュリティのガードレールが締め付け過ぎていて、モデルがデスループに入ってしまっているのではと疑っています。
私は Gemma31b ではなく Gemma31b-abliteration を使いました。
llama.cpp は両方とも同じバージョン、同じ設定、同じエージェンティック・ハーネス(opencode)です。
文字通り、すべて同じで、サンプリングのパラメータも同じでした。公式モデルは、ある一定のところまでは複数ファイルの編集で動作しますが、その後、やがてループして「死のスパイラル」に陥ります。しかし
abliteration モデルは?完全にうまく動きました。私は、セキュリティを削除する(取り除く)ことが過度にならない abliteration を使うようにしています。というのも、攻撃性が高いほど、知能の損失が大きくなるからです。
同じような経験をした方はいますか?

私が使っているのはこの GGUF です https://huggingface.co/paperscarecrow/Gemma-4-31B-it-abliterated/blob/main/gemma-4-31b-abliterated-Q4_K_M.gguf

submitted by /u/Express_Quail_1493
[link] [comments]