| I have been nothing but impressed by the quality of Gemma 4 since release. In general conversation it's adaptable to different personas. For maths and reasoning it's great. It doesn't spend too long thinking unless you tell it to. But its coding ability honestly leaves me struggling to grasp that this is only 31b parameters A small test I've done recently is giving the model an image and asking for a 3D model of the image. It's not a simple image (an F1 car) so I didn't expect miracles. For instance here is Claude Sonnet 4.6: There's some complex geometry in there and the presentation is cool. But there are some absurd anomalies Gemini 3.1 Pro was cruder but less broken: ChatGPT was `not just bad, it was Ferrari 2012 bad`: Moving on to local models, the previous and for some current darling of local models, Qwen3.5 27b at Q8 took 6800 tokens to deliver this: But in just 3600 tokens, Gemma 4 31b produced this: [link] [comments] |
Gemma 4 31b 3D geometry
Reddit r/LocalLLaMA / 4/16/2026
💬 OpinionSignals & Early TrendsTools & Practical UsageModels & Research
Key Points
- Reddit投稿では、31Bパラメータの「Gemma 4」が会話適応性や数学・推論の品質で高評価だが、特にコード生成は理解しにくいほど課題があると述べられています。
- 画像から3Dモデルを生成する簡易テストでは、Gemma 4が他モデルより良い結果を比較的短いトークン数で出した一方、形状の異常(アノマリー)も残るとされています。
- 参照された比較として、Claude Sonnet 4.6は見栄えは良いものの異常があり、Gemini 3.1 Proは粗いが致命的な破綻は相対的に少ない、ChatGPTは大きく不調だったという印象が語られています。
- ローカルモデル領域では、Qwen3.5 27Bがより多いトークンを要したのに対し、Gemma 4 31Bは少ないトークンで同種の出力を生成できた点が「効率面の有望さ」として注目されています。




