ローカルで「+-100B」級モデルを外国語で試した人はいる?

Reddit r/LocalLLaMA / 2026/5/4

💬 オピニオンSignals & Early TrendsTools & Practical Usage

要点

  • この投稿では、Gemma 4 31B、Qwen 3.6 27B、GLM 4.7 30B などを非英語(チェコ語)でローカルに試した経験が語られ、約18GBのGemmaが特に良い結果だったと述べています。
  • 投稿者は、モデルがときに存在しない語や誤った語を出すことはあるものの、多くの場合“期待していた語”に非常に近い形で生成されるため、語彙を推測・記憶しているようだという見立てを示しています。
  • 主な関心は、英語や中国語以外の言語を、約100Bパラメータ級のモデルがどの程度扱えるのかで、ポーランド語やハンガリー語、その他の少数言語も含めた体験を求めています。
  • 投稿者は、より強力なハードウェアにすることで外国語での性能が実際に改善するのかを質問しています。
  • 全体としては、フォーマルなベンチマークよりも、ローカル環境での多言語生成の挙動を実体験ベースで確認する内容です。

私はかなり好奇心を抱いています。というのも、ネイティブ言語(チェコ語)で Gemma 4 31B、Qwen 3.6 27B、GLM 4.7 30B などをいくつか試してみたからです。Gemma は「最も」良い成績を出していて、しかもその「ただ」18GBモデルだという事実を考えると、私の言語でどれだけうまく応答できるのかに正直驚かされます。とはいえ、例えば 50語に1語が不正確であるという話ではないかもしれません。というより、非常に頻繁に存在しない単語ですらあります。ただ、それでも私が見られると期待する内容にとてもよく似ています。つまり、このモデルは正しい単語を「覚えよう」としていることは明らかです。

では、±100Bモデルはどうでしょう?英語や中国語以外の言語を、どのように扱うのでしょうか。私はかなり楽しく試していて、お金の面でもあまり制約がありません。そのため、より強力なハードウェアを手に入れれば、その恩恵が得られるのかを知りたいです。

返信ありがとうございます。チェコ語に関する話でなくても構いませんが、ポーランド語やマジャール語、あるいは南スラヴ系の言語など、あまり一般的ではない言語についての話でも大丈夫です……あなたが試したものなら何でも。

submitted by /u/Choice_Sympathy9652
[link] [comments]