私は控えめな環境を持っていて、Ollama経由でQwen 3.5 27B、あるいは35Bまで動かせます。Qwenで作業するのは素晴らしく、スローダウン(ゆっくり生成される)というトレードオフにも問題なく付き合えていました。
そしてGoogleがGemma4をリリースしました。
とにかく速い――4Bや9B級の速さです。正確さや自信の面でも、実際に動くコードを生成できるようになった、最初のGemini Proのリリースを思い出させます。
「ローカルで使う人」として、小規模な自前ホストLLMにおける使いやすさと自信のこの変化は、何年も前にDeepseekが思考能力という形で持ち込んだものを思い出させてくれました。
チャンスがあれば一度試してみて、Googleが推奨する設定を適用してください。違いはあります(少し遅くなるけれど、より良い)
いくつかのリリースを試しましたが、今回のものが、私が投げたすべてのテスト――法解釈、python、ブレインストーミング、問題解決――に対して最も良く機能しました。
bjoernb/gemma4-26b-fast:latest(これを作った人とは関係ありません)
今後数日で、ab撃(abliterated)版が、ペネトレーションテスト&シスエクス(sysec)のタスクにおいてQwenと比べてどの程度の立ち位置か確認し始めます。
[link] [comments]




