Gemma 4 26bは万能なローカルモデルとして最適で、どれだけうまく動くのかに驚いた

Reddit r/LocalLLaMA / 2026/4/5

💬 オピニオンSignals & Early TrendsTools & Practical Usage

要点

  • 64GB RAMのMacでローカルLLMをテストしたユーザーによると、Gemma 4 26Bは高速で、数回のプロンプト後にHTML/JavaScriptで動作するDoom風のレイキャスターを一貫して生成できた。
  • Qwen 3 Coder(特に4ビット)と比較して、ユーザーはGemma 4のほうがシステムを過負荷にしにくく、ツール呼び出しのパラメータループに陥りにくく、タスク完了の信頼性が高かったと報告している。
  • ユーザーはまた、Qwen 3.5(約30B MoE)は同じテストを完了できず、長時間の「思考」ループに入ってしまい、完了せずに同じファイルを書き換え続けたと述べている。
  • 全体としての結論は、Gemma 4 26Bがコーディング作業向けの実用的な「オールラウンド」ローカルモデルだという強い印象であり、時間とともにローカルモデルの競争力が高まっていく可能性を示唆している。
  • この投稿は、正式な評価というよりも体験に基づく・タスク別のベンチマークとして構成されており、消費者向けのハードウェア上での応答性、安定性、コード補完に焦点を当てている。

約1か月前に64GBメモリのMacを買って、そこそこ速くて、コーディングがそれなりに得意で、システムを過負荷にしないモデルを見つけようとずっと試していました。私がやっているテストは、htmlとjsでdoomスタイルのレイキャスターを作らせることです

「Qwen 3 Coder Nextが最強だ」と聞いていましたが、良いものの、4bit版だと常にシステムがギリギリのところまで行ってしまいました。さらに、4bit版が原因だったのかは分かりませんが、いつもツールの使用を外してしまい、正しいパラメータを当てようとする推測のループにハマってしまっていました。doomのテストでは、たいていはうまくいってそこそこ良いものを作れましたが、しばらくの間、悪いツール呼び出しのループに詰まった後はうまくいきませんでした。

Qwen 3.5(約30bのmoe版)も、私の経験では、どれもうまくできませんでした。いつも考え続けるループにハマって、その後、自分に自信がなくなりすぎて、同じファイルを書き直しては終わらず、いつまでも完了しませんでした。

しかしGemma 4はそれを完全に粉砕しました。たった3つのプロンプトで動くものを作らせることができました。しかもとても速いです。考えることの制限もしていて、細部に迷いすぎたりもしませんでした。やるべきことをきちんとやっただけです。ローカルモデルを実行して「ちゃんとすごく上手くいった」と実際に驚いたのは初めてで、変なことも起きませんでした。

ローカルモデルの未来にワクワクしますし、2〜3年後には、世界のソネットたち(のような)に対抗できる、非常に高性能なローカルモデルが使えるようになっているとしても不思議ではないです。

submitted by /u/pizzaisprettyneato
[link] [comments]