| Qwen 3.5 27B と Qwen 3.6 27B にいくつかの数学の問題を解かせたところ、全部正解しました。かなり賢いモデルだと思いますが、とても遅くて電力消費が大きいです。私のGPU(120W)だと、問題を解くのにだいたい5分かかりました。 MoEモデルはかなり速く回答しますが、回答が無難で一般的な感じがします。問題解決には使わないと思いますが、勉強や新しいことを学ぶ用途なら使えます。インターネットがないときのWikipediaとして使える、という感じです。 その中で一番よく使っているのは Qwen3-Coder-30B です。これは本当に気に入っていますが、古いモデルです。 今年の初め(年の前半)には、GPT-OSS 20B もかなり使っていました。 [リンク] [コメント] |
ローカル環境で使える複数LLMの比較:問題解決/コーディングに最適で、LLM概念の学習に向くのはどれ?(Reddit投稿)
Reddit r/LocalLLaMA / 2026/4/29
💬 オピニオンSignals & Early TrendsTools & Practical Usage
要点
- 投稿者は、Linux Mint上でllama.cpp(Vulkanバックエンド)によりローカル実行した複数のLLM(Qwen 3.5 27B、Qwen 3.6 27B、MoEモデル、Qwen3-Coder-30B、GPT-OSS 20B)を比較し、その体感を共有しています。
- Qwen 3.5 27B と Qwen 3.6 27B は数理・問題解決で高い正答率がある一方、遅く電力も多く消費する(GPU約120Wで問題あたり約5分)と報告されています。
- MoEモデルは応答が速いとされるものの、回答がやや一般的に感じられ、厳密な問題解決には向かない印象が示されています。
- インターネットに制限がある状況での「LLM概念の学習」用途には、速いMoEモデルを“百科事典のように”使えると提案しています。
- コーディング用途では Qwen3-Coder-30B が最も気に入っているモデルとして挙げられていますが、古いモデルである点にも触れています。




