| リリース以来、Gemma 4 の品質には本当に感心させられっぱなしです。一般的な会話では、さまざまな人物像に合わせて適応できます。数学や推論でも素晴らしいです。こちらが指示しない限り、考え込む時間が長すぎることもありません。ですが正直なところ、コーディング能力は私が「これがわずか31bのパラメータである」ことを理解するのを難しくしています 最近行った小さなテストは、モデルに画像を与えて、その画像の3Dモデルを作らせることです。画像は単純ではありません(F1カー)ので、奇跡は期待していませんでした。たとえばこちらは Claude Sonnet 4.6: そこにはいくつかの複雑なジオメトリがあり、見せ方もかっこいいです。けれど、いくつかの非常識な異常もあります Gemini 3.1 Pro はもっと雑でしたが、壊れてはいませんでした: ChatGPT は `悪いだけじゃなくて、「フェラーリ2012級に悪かった」`: ローカルモデルに話を移すと、以前、そして(現在でも一部で)ローカルモデルの寵児とも言える Qwen3.5 27b(Q8)では、この出力に 6800 tokens かかりました: しかし、わずか 3600 tokens で Gemma 4 31b はこれを生成しました: [link] [comments] |
Gemma 4 31b 3Dジオメトリ
Reddit r/LocalLLaMA / 2026/4/16
💬 オピニオンSignals & Early TrendsTools & Practical UsageModels & Research
要点
- Reddit投稿では、31Bパラメータの「Gemma 4」が会話適応性や数学・推論の品質で高評価だが、特にコード生成は理解しにくいほど課題があると述べられています。
- 画像から3Dモデルを生成する簡易テストでは、Gemma 4が他モデルより良い結果を比較的短いトークン数で出した一方、形状の異常(アノマリー)も残るとされています。
- 参照された比較として、Claude Sonnet 4.6は見栄えは良いものの異常があり、Gemini 3.1 Proは粗いが致命的な破綻は相対的に少ない、ChatGPTは大きく不調だったという印象が語られています。
- ローカルモデル領域では、Qwen3.5 27Bがより多いトークンを要したのに対し、Gemma 4 31Bは少ないトークンで同種の出力を生成できた点が「効率面の有望さ」として注目されています。




