しばらくの間、ちゃんと使える無料のローカルLLMを探していました。もうすぐだと思います——品質が急速にそこまで来ています。そしてGemma 4は、簡単〜中程度のタスクのために本番投入で本気で使おうと考えた最初のオープンウェイトモデルです。
その直感を確かめるために、2つのモデル(31B Denseと26B A4B MoE)を、8つの実際のタスクで試しました——ベンチマークではなく、仕事で実際に使うであろうプロンプトです。すべて共有したので、あなた自身でも同じテストを実行できます:
- 8つのプロンプトすべて(コピペで使える形)
- 長めのテストのためのモデル出力全文
- デモアプリのソース(単一のHTMLファイル。無料のAI Studioキーが必要なだけです)
結果はGemini 3.1 ProとClaude Opus 4.6によって独立に検証されました。
https://github.com/useaitechdad/explore-gemma4
*注:これらのテストは、ローカルではなくGenai API経由で実行しました(GCP上でホストされているGemma 4)。31Bは友人がローカルで動かしていて、同様の性能だと報告していますが、これらの特定のテストはクラウド実行です。 *
[リンク] [コメント]




