ローカル環境で使える複数LLMの比較:問題解決/コーディングに最適で、LLM概念の学習に向くのはどれ?(Reddit投稿)

Reddit r/LocalLLaMA / 2026/4/29

💬 オピニオンSignals & Early TrendsTools & Practical Usage

要点

  • 投稿者は、Linux Mint上でllama.cpp(Vulkanバックエンド)によりローカル実行した複数のLLM(Qwen 3.5 27B、Qwen 3.6 27B、MoEモデル、Qwen3-Coder-30B、GPT-OSS 20B)を比較し、その体感を共有しています。
  • Qwen 3.5 27B と Qwen 3.6 27B は数理・問題解決で高い正答率がある一方、遅く電力も多く消費する(GPU約120Wで問題あたり約5分)と報告されています。
  • MoEモデルは応答が速いとされるものの、回答がやや一般的に感じられ、厳密な問題解決には向かない印象が示されています。
  • インターネットに制限がある状況での「LLM概念の学習」用途には、速いMoEモデルを“百科事典のように”使えると提案しています。
  • コーディング用途では Qwen3-Coder-30B が最も気に入っているモデルとして挙げられていますが、古いモデルである点にも触れています。
ここで聞くのに最適な場所ではないかもしれませんが、画像の中のモデルのうち、(問題解決)/コーディングに一番向いていて、勉強(LLMの概念を尋ねる)に一番向いているのはどれですか? 私のPC構成は RX 9060 XT 16GB + I3 12100F + 16 GB DDR4 + Vulkanバックエンド付きの llama.cpp + Linux Mint です。

Qwen 3.5 27B と Qwen 3.6 27B にいくつかの数学の問題を解かせたところ、全部正解しました。かなり賢いモデルだと思いますが、とても遅くて電力消費が大きいです。私のGPU(120W)だと、問題を解くのにだいたい5分かかりました。

MoEモデルはかなり速く回答しますが、回答が無難で一般的な感じがします。問題解決には使わないと思いますが、勉強や新しいことを学ぶ用途なら使えます。インターネットがないときのWikipediaとして使える、という感じです。

その中で一番よく使っているのは Qwen3-Coder-30B です。これは本当に気に入っていますが、古いモデルです。

今年の初め(年の前半)には、GPT-OSS 20B もかなり使っていました。

submitted by /u/Badhunter31415
[リンク] [コメント]