この春は本当に熱いです。ローカルLLMの巨大企業であるQwenとGemmaが主要なモデルを相次いでリリースしたからです。
そのリリースにとてもワクワクしていて、能力にも満足しています。
どちらもローカルLLMの本当のヒーローですが、強みが違うように感じています。
背景としては、私はテキストのレビュー、人文/社会科学分野での文法チェック、そしてPythonでのコーディング(主に軽めのデータ分析系)、Webアプリ(js, ts)、一般的な用途でそれらを使っています。
27/31B denseと35/26B MoEを使っていますが、もっと小さいモデルはあまり試していません。
Qwen
強み
- 思考/知識、そしてSTEM領域での扱い方やパラダイム。
- コーディング。すでに良くなっていましたが、3.6ではGemmaよりもコーディングが格段に、かなり優れています。
弱み
- 英語以外の言語。テキスト/会話が英語でないと、急に馬鹿になったように感じます。中国語だと上手くいくのかもしれませんが、中国語ができないので分かりません。
- 時々、自分の分野に対して「論理的」すぎる、または「融通が利かない頭のかたさ」があるように感じます。
Gemma
強み
- 考え方の柔軟性がありますが、時々「もやっと」します。それでも私の用途では、Qwenよりも合っていることが多いです。
- 非英語言語。Qwenとは違って、ほかの言語で劣化しません。
弱み
- コーディング。4は3よりずっと良いですが、それでもQwenにはまだ大きく及びません。
- 画像。画像認識はQwenのほうが得意です。
- ツールの使用。モデル自体の問題というより、エンジンの最適化がまだうまく噛み合っていないように感じます。モデルの設計が複雑すぎるのかな?分かりません。
バイアス
どちらも異なるやり方/方向でバイアスがあります。特に政治/文化の話題です。一般に「本当の意味で中立」なモデルは不可能だと考えているので、私は常にその点を念頭に置いています。ただ、3.5以降は(私の意見では以前はかなりバイアスが強かった)Qwenは中立性の方向により寄っていると思います。Gemmaと似たような中立性です。
それでも時々ハルシネーションしたり、ときどきダメだったりしますが、私はそれで良いとも思っています。私自身が、それを避けるために(アルツハイマーにならないように)脳と手を使って補う必要があるからです。
どちらもオープンウェイトなので、ケースに応じて使い続けています。
私の使用頻度はそれほど高くないので、何か見落としているかもしれませんし、これは単なる私の意見/感想です。
あなたはどう思いますか?気になっています。
[link] [comments]



