Gemma 4をまだ試していないなら……今日はぜひやってみてください

Reddit r/LocalLLaMA / 2026/4/12

💬 オピニオンSignals & Early TrendsTools & Practical Usage

要点

  • 著者は、OllamaでローカルLLMを動かしながら、GoogleのGemma 4が(より大きなQwen系バリアントと比べても)有意に高速である一方、コード対応のタスクや一般的な問題解決において信頼性が高いと述べています。
  • Gemma 4の精度と自信は、実行可能なコードを生成することで知られた初期の「Gemini Pro」挙動に近い体感だと報告しており、セルフホスト用途での使いやすさが向上したとしています。
  • 投稿では、生成がわずかに遅くなる代わりに、Googleが推奨する設定に従うことでより良い結果が得られると主張しています。
  • 著者の非公式なテスト(法律解釈、Python、ブレインストーミング、その他の問題解決)に基づくと、今回試した特定のモデルリリースが、以前のベンチマークと比べて全体として最も良かったとのことです。
  • 次に、より小さな「abliterated(改変/圧縮版)」バージョンを評価する予定で、Qwenと比べたときのペンテストやサイバーセキュリティ系タスクでの性能も確認するとしています。

私は控えめな環境を持っていて、Ollama経由でQwen 3.5 27B、あるいは35Bまで動かせます。Qwenで作業するのは素晴らしく、スローダウン(ゆっくり生成される)というトレードオフにも問題なく付き合えていました。

そしてGoogleがGemma4をリリースしました。

とにかく速い――4Bや9B級の速さです。正確さや自信の面でも、実際に動くコードを生成できるようになった、最初のGemini Proのリリースを思い出させます。

「ローカルで使う人」として、小規模な自前ホストLLMにおける使いやすさと自信のこの変化は、何年も前にDeepseekが思考能力という形で持ち込んだものを思い出させてくれました。

チャンスがあれば一度試してみて、Googleが推奨する設定を適用してください。違いはあります(少し遅くなるけれど、より良い)

いくつかのリリースを試しましたが、今回のものが、私が投げたすべてのテスト――法解釈、python、ブレインストーミング、問題解決――に対して最も良く機能しました。

bjoernb/gemma4-26b-fast:latest(これを作った人とは関係ありません)

今後数日で、ab撃(abliterated)版が、ペネトレーションテスト&シスエクス(sysec)のタスクにおいてQwenと比べてどの程度の立ち位置か確認し始めます。

submitted by /u/No-Anchovies
[link] [comments]