128GBの統合メモリを搭載したAMD Strix 395 AI MaxでLMStudioを使用している人はいますか? エラーが頻繁に発生し、常にRAMへロードされてしまいます。

Reddit r/LocalLLaMA / 2026/3/22

💬 オピニオンTools & Practical Usage

要点

  • AMD Strix 395 AI Max(128GBの統合メモリ)上でLMStudioがモデルをGPUではなくRAMへ全てロードしてしまい、失敗を引き起こすと報告している。
  • 70GBのQwen3モデルがRAMへロードされ、その後GPUへの転送に失敗する、またチャットを試すと入力が機能しない、などの症状を述べている。
  • 最新のLMStudioとllama.cppを使用しており、GPUの最大レイヤー数とVRAMを設定(BIOSを96GBまたは自動に設定)しても成功していないと述べている。
  • 問題解決のための指針やチュートリアルを求めている。

皆さん、こんにちは、

128GBの統合RAMを搭載し、そのRAMの大半をGPUに割り当てられるFramework AI Max+ AMD 395 Strixシステムです。

LMStudioを使おうとしていますが、全く動作せず、私の操作ミスのように感じます。問題は二つあります。まず、すべてのモデルがRAMにロードされているようです。たとえば、70GBのQwen3モデルはRAMにロードされ、それからGPUへロードしようとしますが、失敗します。チャットに何か入力すると、動作しません。GPUをllama.cppとして設定しているにもかかわらず、モデルをRAMへロードするのを止めることができません。

LMStudioの最新バージョンと、LMStudioに同梱されている最新のllama.cpp mainブランチを使用しています。モデルのGPU最大レイヤー数も設定しました。BIOSで96GBのVRAMを設定しましたが、同時に自動設定にもしています。

何も動作しません。

ここで私が見落としている点や、参考になるチュートリアルなどがあれば教えてください。

ありがとうございます!

投稿者: /u/StartupTim
[リンク] [コメント]