AI Navigate

llama.cppでNVIDIAとAMDのGPUを混在させた経験はありますか?安定していますか?

Reddit r/LocalLLaMA / 2026/3/16

💬 オピニオンDeveloper Stack & InfrastructureTools & Practical Usage

要点

  • Windows上でllama.cppのAIワークロードを実行する際、NVIDIAとAMDのGPUを混在させることの安定性についての直接の報告を求めている。
  • Qwen 122Bを動作させるためにVRAMを増やす目的でNVIDIA RTX 5090をAMD 9700 Proカードへ置換し、CPUオフロードを減らすことについて述べている。
  • 著者は以前、2枚の5090と1枚の5070 Tiを組み合わせた構成で約80トークン/秒を達成しており、混在構成では約50トークン/秒程度まで低下する可能性があると推測している。
  • 特に安定性と、NVIDIAとAMDを混在させたGPU構成におけるVulkanの性能差について尋ねている。

現在、AI用途で1つのシステムに2枚の5090を搭載しており、ProArt 870xeを使用しています。5090を1枚売却して2枚のAMD 9700 Proカードに置き換え、VRAMを増やしてQwen 122BをCPUへのオフロードよりも容易に実行できるようにし、あの新しいNVIDIAモデルと比較しています。私は速度にはあまりこだわっていません。遅くなりすぎない限り、それほど気にしていません。それが安定しているか、Vulkanと純粋なNVIDIAとの差がどれくらいかが気になります。

私が2枚の5090を、パートナーのゲーミングPCの5070Tiと組み合わせてテストしたとき、1秒あたり約80トークンを得ました。この構成だと50程度まで落ちる可能性があることは認識していますが、それでもまだ十分良いと思います。私はAIを使っていないときは主にゲーム用にメインの5090を使用します。5090を保持するべきだというアドバイスは不要です。WindowsなどでAMDとNVIDIAのカードを混在させた際の安定性について、皆さんの経験を聞かせてください。ありがとうございます。

submitted by /u/fluffywuffie90210
[リンク] [コメント]