Gemma 4 31b 3Dジオメトリ

Reddit r/LocalLLaMA / 2026/4/16

💬 オピニオンSignals & Early TrendsTools & Practical UsageModels & Research

要点

  • Reddit投稿では、31Bパラメータの「Gemma 4」が会話適応性や数学・推論の品質で高評価だが、特にコード生成は理解しにくいほど課題があると述べられています。
  • 画像から3Dモデルを生成する簡易テストでは、Gemma 4が他モデルより良い結果を比較的短いトークン数で出した一方、形状の異常(アノマリー)も残るとされています。
  • 参照された比較として、Claude Sonnet 4.6は見栄えは良いものの異常があり、Gemini 3.1 Proは粗いが致命的な破綻は相対的に少ない、ChatGPTは大きく不調だったという印象が語られています。
  • ローカルモデル領域では、Qwen3.5 27Bがより多いトークンを要したのに対し、Gemma 4 31Bは少ないトークンで同種の出力を生成できた点が「効率面の有望さ」として注目されています。
Gemma 4 31b 3D geometry

リリース以来、Gemma 4 の品質には本当に感心させられっぱなしです。一般的な会話では、さまざまな人物像に合わせて適応できます。数学や推論でも素晴らしいです。こちらが指示しない限り、考え込む時間が長すぎることもありません。ですが正直なところ、コーディング能力は私が「これがわずか31bのパラメータである」ことを理解するのを難しくしています

最近行った小さなテストは、モデルに画像を与えて、その画像の3Dモデルを作らせることです。画像は単純ではありません(F1カー)ので、奇跡は期待していませんでした。たとえばこちらは Claude Sonnet 4.6:

Sonnet 4.6

そこにはいくつかの複雑なジオメトリがあり、見せ方もかっこいいです。けれど、いくつかの非常識な異常もあります

Gemini 3.1 Pro はもっと雑でしたが、壊れてはいませんでした:

Gemini 3.1 Pro

ChatGPT は `悪いだけじゃなくて、「フェラーリ2012級に悪かった」`:

ChatGPT

ローカルモデルに話を移すと、以前、そして(現在でも一部で)ローカルモデルの寵児とも言える Qwen3.5 27b(Q8)では、この出力に 6800 tokens かかりました:

https://preview.redd.it/6d1gtqda5kvg1.png?width=723&format=png&auto=webp&s=4c91b235abb3a3fec4bc15beb372f7f5c395bfca

しかし、わずか 3600 tokens で Gemma 4 31b はこれを生成しました:

https://preview.redd.it/jbpc8s0h5kvg1.png?width=777&format=png&auto=webp&s=4b0c99cb1e9de8e3c7f540990c5cc34aa6e811ae

submitted by /u/BigYoSpeck
[link] [comments]