ローカルLLMを動かすのに適したデバイスはどんなもの?

Reddit r/LocalLLaMA / 2026/5/2

💬 オピニオンDeveloper Stack & InfrastructureTools & Practical Usage

要点

  • 利用者は、Copilotの課金モデル変更でコストが高くなったことをきっかけに、自分でローカルLLMを動かす可能性を考え、適したデバイスについて質問しています。
  • 彼らは、Macの大容量RAM(例:128GB)、RTX 5070/5080/5090搭載のWindows(ただしGPUメモリ制限が問題になるかを懸念)といった選択肢を比較しています。
  • さらに、Spark DGXのようなミニスーパコンピュータも挙げていますが、他の選択肢に比べて相対的に遅いと聞いたと述べています。
  • そのうえで、ローカルLLMを効果的に動かすためのデバイス選びの経験やアドバイスをコミュニティに求めています。

copilot の請求モデルが変わったせいで、かなり高額になってしまったので、自分でローカルの LLM を動かす可能性を考え始めています。ですが、この用途にはどのような種類のデバイスが適しているのか、確信が持てません。

  1. 128GB のような大容量 RAM を搭載した Mac

  2. RTX5070/5080/5090 を搭載した Windows ですが、メモリ容量の制限が深刻な問題になったりしませんか?

  3. Spark DGX のようなミニのスーパーコンピュータですが、他の選択肢と比べて比較的遅いと聞いたことがあります?

ローカルの LLM を動かすためのデバイスの選び方について、あなたの経験を共有してもらえませんか。アドバイスありがとうございます!

提供者: /u/attic0218
[リンク] [コメント]