あなたの好きな小〜中規模のローカル・モデルは?

Reddit r/LocalLLaMA / 2026/4/16

💬 オピニオンSignals & Early TrendsTools & Practical Usage

要点

  • Redditのユーザーが、コミュニティに対して好みの小〜中規模ローカルLLMと、その理由を尋ねます。
  • 投稿では、Gemma-4-E4BとQwen3.5-9Bに関する個人的な試用結果が共有されており、GemopusやQwopusといったバリアント、さらに「無制限/攻撃的」とされるQ8_0モデルなど、量子化ビルドも含まれます。
  • ユーザーは他のモデルについての経験があまりないとも述べ、詳しい人からの推薦を呼びかけています。
  • スレッドは、公式のリリースや厳密なベンチマークというよりも、主観的な相性や実際のローカル利用に焦点を当てた議論として位置づけられています。

いまGemma-4-E4BとQwen3.5-9Bで楽しく遊んでいて、GemopusやQwopusみたいにいろいろなバリアントを試したり、Qwen3.5-9B-Uncensored-HauhauCS-Aggressive-Q8_0を試したりしています

他のモデルはよく分からないんですが、あなたのおすすめはどれですか?それはなぜで、どうやって使っていますか?

投稿者: /u/__ahdw
[リンク] [コメント]