デュアル DGX Spark(ASUS GX10)での MiniMax M2.7 の結果

Reddit r/LocalLLaMA / 2026/4/21

💬 オピニオンSignals & Early TrendsTools & Practical Usage

要点

  • 著者はデュアル3090構成を、熱と騒音を減らすためにデュアルのASUS GX10(“DGX Spark”)へ置き換え、推論時のGX10あたりの消費電力は約100Wだと報告しています。
  • 既存のオープンソース実装と「Hermes agent」を使い、Hugging FaceのMiniMax M2.7 AWQ 4-bitモデルをエラーなく動作させたと述べています。
  • llama benchyをレイテンシーモードでコンテキスト長(4k〜102.4k)ごとに計測し、スループットの変化とともに、特にTTFT(time to first token)が高いことを確認しています。
  • TTFTが高いにもかかわらず、乗り換えは「勝ち」だとしており、元のMI50を売却することまで考えているようです。
  • 追記として100k深度のベンチマークが追加され、非常に長いコンテキスト長まで性能結果が拡張されています。

皆さんこんにちは
3090を2台と、mi50を8 x 32gb搭載しているのですが、これらのマシンの熱さと騒音にうんざりしていました。そこで この投稿 や、NVIDIAフォーラムの他の投稿に触発されて、デュアルのAsus GX10(dgx spark)を購入しました。すごく嬉しいです。
各GX10は推論中に約100W消費します。

最初のトークンまでの時間はかなり高いですが、私にとっては勝ちです
面倒なく https://huggingface.co/cyankiwi/MiniMax-M2.7-AWQ-4bit/ を実行できます
オープンコードとhermes agentを使いましたが、エラーはありません。あとは走らせるだけで、最高です!

以下は、llama benchy を使った私の結果です --depth 0 4096 8192 16384 32768 --latency-mode generation:

| test | t/s | peak t/s | ttfr (ms) | est_ppt (ms) | e2e_ttft (ms) | |----------------:|----------------:|-------------:|------------------:|------------------:|------------------:| | pp2048 | 3452.05 ± 73.32 | | 626.82 ± 19.83 | 511.74 ± 19.83 | 626.84 ± 19.83 | | tg32 | 38.84 ± 0.01 | 40.09 ± 0.01 | | | | | pp2048 @ d4096 | 2848.85 ± 35.82 | | 2022.61 ± 28.98 | 1907.54 ± 28.98 | 2022.65 ± 28.98 | | tg32 @ d4096 | 37.37 ± 0.23 | 38.57 ± 0.24 | | | | | pp2048 @ d8192 | 2579.85 ± 18.26 | | 3523.69 ± 61.33 | 3408.62 ± 61.33 | 3523.73 ± 61.33 | | tg32 @ d8192 | 36.27 ± 0.14 | 37.44 ± 0.15 | | | | | pp2048 @ d16384 | 2411.34 ± 7.68 | | 6791.62 ± 57.14 | 6676.55 ± 57.14 | 6791.66 ± 57.14 | | tg32 @ d16384 | 34.12 ± 0.11 | 35.23 ± 0.12 | | | | | pp2048 @ d32768 | 1988.05 ± 12.95 | | 15512.61 ± 147.98 | 15397.54 ± 147.98 | 15512.65 ± 147.98 | | tg32 @ d32768 | 30.72 ± 0.08 | 31.00 ± 0.00 | | | | | pp2048 @ d102400 | 1167.98 ± 9.19 | | 78208.55 ± 573.73 | 78118.97 ± 573.73 | 78208.59 ± 573.73 | | tg32 @ d102400 | 21.63 ± 0.07 | 23.00 ± 0.00 | | | | 

そろそろmi50を売ろうかと考え始めています;)

編集: llama benchy に関する情報、depth 100kを追加

submitted by /u/koibKop4
[link] [comments]