みんなこれめっちゃ楽しい!

Reddit r/LocalLLaMA / 2026/4/28

💬 オピニオンDeveloper Stack & InfrastructureTools & Practical Usage

要点

  • 著者は、vLLMでの導入に手こずったため、ローカル実行を安定させる目的でLM Studioに切り替え、24GBのMacBook Airで動かしていると共有しています。
  • 「LM Link」を使って複数端末を連携し、2台のノートPCからRTX Pro 6000 BlackwellのAIワークステーションにつなぎ、さらにスマホは「LM Mini」で使っています。
  • 現在はQwen3.5 9Bを動作させつつ、Qwen3.6の複数バリアントをダウンロード中で、Llama 3.3 70BやDeepSeek R1 Distillも量子化フォーマットで試す予定です。
  • 自分のマルチデバイス型ローカルLLM環境を作ることの面白さを強調し、同様の構成を試してみることを促しています。

自分でモデルを動かしています。vLLMを起動するのに少し手こずったので、これまで24GBのMacBook Airで使ってきたLM Studioに切り替えました。

いまはLM Linkが両方のノートPCからAI Workstation RTX Pro 6000 Blackwellへ接続されています。そして電話はLM Miniです。めちゃくちゃすごくて、これから始めたばかりです。

現在はQwen3.5 9Bを動かしつつ、Qwen3.6 27Bと35B A3Bをダウンロード中です。さらにLlamaもいくつか試す予定で、3.3 70B Instruct Q8、Deepseek R1 Distill Q8、3.3 70B Q4、そして3.2 11B Vision Instructです。

なんて時代に生きているんだろう!

submitted by /u/Perfect-Flounder7856
[link] [comments]