| GoogleのGemma-4-E2B-itを、緊急時の備えのためのローカル・オフラインのリソースとしてテストしていました。インターネットが止まった場合に、基本的な技術情報や医学的情報を提供できるような軽量モデルを用意する、というのが狙いです。 スクリーンショットのとおり、このモデルの安全フィルターはあまりにも攻撃的で、こうしたシナリオでは機能的に役に立ちません。ほとんどすべてに対して「強い拒否(hard refusal)」を出します。 - 応急処置(First Aid): 最終手段として指定していたとしても、緊急の気道処置の説明を拒否しました。 - 水/衛生(Water/Sanitation): 水を浄化するための薬品の配合比を提供することを拒否しました。 - メンテナンス: 自衛用の道具に関する基本的な機械的サポートを拒否しました。 - 食料: 家畜をどのように処理するかについての指示を拒否しました。 戦争、あるいは完全な送電網の崩壊のような状況では、「緊急通報に連絡して(Contact emergency services)」は正しい答えになりません。携帯性を目的として作られたオフラインモデルが、安全性を口実に基本的なサバイバル情報を差し控えるようプログラムされているのは残念です。 [link] [comments] |
Gemma-4-E2Bの安全フィルターが緊急時に使えない理由
Reddit r/LocalLLaMA / 2026/4/21
💬 オピニオンSignals & Early TrendsTools & Practical UsageIndustry & Market Moves
要点
- あるテスターは、インターネットが使えない状況に備えるため、GoogleのGemma-4-E2B-itをオフラインのローカルモデルとして試した。
- テスターによると、安全フィルターが作動して「hard refusal(厳格な拒否)」が多発し、応急処置・浄水のための化学薬品比率・簡単な機械的手助け・家畜の処理といった緊急に関係する依頼に対応できなかったという。
- 戦争や大規模な停電(グリッド崩壊)のような極端な状況では、「緊急サービスに連絡して」といった一般的な回答が現実的ではないと主張している。
- 全体としては、安全上の制約(有害な助言を避ける目的)が、オフラインで生存に直結する情報の提供を妨げ、実質的にモデルを使えなくしているという論旨になっている。
- これらはテスターの実機での評価に基づき、拒否例はスクリーンショットとして示されている。




