最良のローカルLLM - 2026年4月

Reddit r/LocalLLaMA / 2026/4/14

💬 オピニオンSignals & Early TrendsTools & Practical UsageModels & Research

要点

  • この投稿はコミュニティの「Best Local LLMs(最良のローカルLLM)」メガスレッドで、ユーザーに対し、どのオープンウェイトのローカルモデルを実行しているか、またその理由を共有するよう求めています。
  • Qwen3.5、Gemma4、GLM-5.1、Minimax-M2.7、そしてPrismML Bonsai 1-bitモデルなど、最近のリリースと性能に関する注目すべき主張を取り上げています。
  • スレッドでは、現実的な評価の難しさを強調し、信頼性の低いベンチマークだけではなく、セットアップ、ツール、フレームワーク、プロンプト、利用パターンなどの詳細な報告を求めています。
  • 推奨はオープンウェイトのモデルに限定されており、一般用途、エージェント/ツール利用/コーディング、創作執筆/RP、専門用途といったアプリケーション領域ごとに回答を整理しています。
  • 参加者には、VRAM/メモリ使用量のティア(SからUnlimited)で推奨を分類することが促されており、他の人が自分のハードウェアで実行可能なモデルを選びやすくすることを目的としています。

またまた「Best Local LLMs」のメガスレッドが帰ってきました!

前回のスレッド以降の数か月で、待望のQwen3.5とGemma4シリーズのリリースにより、私たちは期待のごちそうを続けています。それだけでも十分すぎるのに、GLM-5.1がSOTA級の性能をうたっていたり、Minimax-M2.7が家で使える手頃なSonnetだったり、実際に動くPrismMLのBonsai 1-bitモデルがあったりと、信じがたい瞬間がいくつもあります。 いまあなたのお気に入りを教えてください!

定番のお願い:

いま何を動かしているのかそしてその理由。 LLMを評価するうえでの性質上(ベンチマークの信用性のなさ、未成熟なツール群、内在する確率的性質)、セットアップについてできる限り詳しく、どのように使っているのか(どれくらい/個人利用・業務利用)、ツール/フレームワーク/プロンプトなども含めて、できる限り具体的に書いてください。

ルール

  1. オープンウェイトのモデルのみ

各アプリケーションの下にあるトップレベルのコメントに返信するようスレッドを切ってください。読みやすくするためです。

アプリケーション

  1. General:実用的なガイダンス、ハウツー、百科事典的なQnA、検索エンジンの置き換え/補完
  2. Agentic/Agentic Coding/Tool Use/Coding
  3. Creative Writing/RP
  4. Speciality

カテゴリがない場合は、Specialityコメントの下にトップレベルコメントを作成してください。

注記

人々がLLMをどう使っているかの有用な内訳:https://preview.redd.it/i8td7u8vcewf1.png?width=1090&format=png&auto=webp&s=423fd3fe4cea2b9d78944e521ba8a39794f37c8d

ボーナスポイント:モデルのメモリフットプリント別におすすめを分解/分類してくれると加点です(それぞれのサイズ帯で、異なるタスクごとに複数のモデルを使ってよく、むしろ使うべきです)。

  • Unlimited: >128GB VRAM
  • XL: 64〜128GB VRAM
  • L: 32〜64GB VRAM
  • M: 8〜32GB VRAM
  • S: <8GB VRAM
submitted by /u/rm-rf-rm
[link] [comments]