またまた「Best Local LLMs」のメガスレッドが帰ってきました!
前回のスレッド以降の数か月で、待望のQwen3.5とGemma4シリーズのリリースにより、私たちは期待のごちそうを続けています。それだけでも十分すぎるのに、GLM-5.1がSOTA級の性能をうたっていたり、Minimax-M2.7が家で使える手頃なSonnetだったり、実際に動くPrismMLのBonsai 1-bitモデルがあったりと、信じがたい瞬間がいくつもあります。 いまあなたのお気に入りを教えてください!
定番のお願い:
いま何を動かしているのかそしてその理由。 LLMを評価するうえでの性質上(ベンチマークの信用性のなさ、未成熟なツール群、内在する確率的性質)、セットアップについてできる限り詳しく、どのように使っているのか(どれくらい/個人利用・業務利用)、ツール/フレームワーク/プロンプトなども含めて、できる限り具体的に書いてください。
ルール
- オープンウェイトのモデルのみ
各アプリケーションの下にあるトップレベルのコメントに返信するようスレッドを切ってください。読みやすくするためです。
アプリケーション
- General:実用的なガイダンス、ハウツー、百科事典的なQnA、検索エンジンの置き換え/補完
- Agentic/Agentic Coding/Tool Use/Coding
- Creative Writing/RP
- Speciality
カテゴリがない場合は、Specialityコメントの下にトップレベルコメントを作成してください。
注記
人々がLLMをどう使っているかの有用な内訳:https://preview.redd.it/i8td7u8vcewf1.png?width=1090&format=png&auto=webp&s=423fd3fe4cea2b9d78944e521ba8a39794f37c8d
ボーナスポイント:モデルのメモリフットプリント別におすすめを分解/分類してくれると加点です(それぞれのサイズ帯で、異なるタスクごとに複数のモデルを使ってよく、むしろ使うべきです)。
- Unlimited: >128GB VRAM
- XL: 64〜128GB VRAM
- L: 32〜64GB VRAM
- M: 8〜32GB VRAM
- S: <8GB VRAM
[link] [comments]




