6基のIntel Arc B70でLLMリグを作ろうとしているが、経験者に先に相談したい(LlamaとvLLM)

Reddit r/LocalLLaMA / 2026/4/20

💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage

要点

  • この投稿は、6基のIntel Arc B70 GPUを使ってLLMリグを構築するにあたり、Arc特有の知識は不要だが同様のシステム構築経験のある人に助言を求めています。
  • 著者は、LlamaモデルをvLLMで動かすことに関して、最初から正しくセットアップするための具体的な考え方や手順を知りたいとしています。
  • 5090マシンと128GBのユニファイドメモリ構成で予備テストを行い、興味深い結果が得られたと述べています。
  • 時間に対して報酬を支払う意思があり、提示する料金次第では関連経験を示す証拠の提示も求めています。
  • 全体として、技術アップデートやベンチマークの公開というより、実践的なノウハウをコミュニティから得たい相談投稿です。

こんにちは。6枚のIntel Arc B70を使ってリグを組もうとしているところですが、先に進む前に、同様のシステムの構築経験がある方にお話を伺いたいです(アーク固有の知識は不要です)、特にllamaとvLLMの件です。

最初のテストとして、5090マシンと128GBのユニファイドメモリ環境を使ってみたところ、いくつか興味深い結果が見られました。いくつか質問がありますので、経験のある方と議論する機会をぜひいただき、情報に基づいて判断し、最初から正しく構成できるようにしたいです。

ご対応に対してお支払いすることも可能です。ただし、料金次第ではありますが、関連する経験があることを裏付ける何らかの証拠をご提示いただけるとありがたいです。

ありがとうございます!

提出者: /u/somesayitssick
[リンク] [コメント]