Gemma 4 31b 3D geometry

Reddit r/LocalLLaMA / 4/16/2026

💬 OpinionSignals & Early TrendsTools & Practical UsageModels & Research

Key Points

  • Reddit投稿では、31Bパラメータの「Gemma 4」が会話適応性や数学・推論の品質で高評価だが、特にコード生成は理解しにくいほど課題があると述べられています。
  • 画像から3Dモデルを生成する簡易テストでは、Gemma 4が他モデルより良い結果を比較的短いトークン数で出した一方、形状の異常(アノマリー)も残るとされています。
  • 参照された比較として、Claude Sonnet 4.6は見栄えは良いものの異常があり、Gemini 3.1 Proは粗いが致命的な破綻は相対的に少ない、ChatGPTは大きく不調だったという印象が語られています。
  • ローカルモデル領域では、Qwen3.5 27Bがより多いトークンを要したのに対し、Gemma 4 31Bは少ないトークンで同種の出力を生成できた点が「効率面の有望さ」として注目されています。
Gemma 4 31b 3D geometry

I have been nothing but impressed by the quality of Gemma 4 since release. In general conversation it's adaptable to different personas. For maths and reasoning it's great. It doesn't spend too long thinking unless you tell it to. But its coding ability honestly leaves me struggling to grasp that this is only 31b parameters

A small test I've done recently is giving the model an image and asking for a 3D model of the image. It's not a simple image (an F1 car) so I didn't expect miracles. For instance here is Claude Sonnet 4.6:

Sonnet 4.6

There's some complex geometry in there and the presentation is cool. But there are some absurd anomalies

Gemini 3.1 Pro was cruder but less broken:

Gemini 3.1 Pro

ChatGPT was `not just bad, it was Ferrari 2012 bad`:

ChatGPT

Moving on to local models, the previous and for some current darling of local models, Qwen3.5 27b at Q8 took 6800 tokens to deliver this:

https://preview.redd.it/6d1gtqda5kvg1.png?width=723&format=png&auto=webp&s=4c91b235abb3a3fec4bc15beb372f7f5c395bfca

But in just 3600 tokens, Gemma 4 31b produced this:

https://preview.redd.it/jbpc8s0h5kvg1.png?width=777&format=png&auto=webp&s=4b0c99cb1e9de8e3c7f540990c5cc34aa6e811ae

submitted by /u/BigYoSpeck
[link] [comments]