AI Navigate

3つの120Bモデルを搭載したM5 Max 128GB

Reddit r/LocalLLaMA / 2026/3/19

💬 オピニオンTools & Practical UsageModels & Research

要点

  • 本投稿は品質と速度の観点から、3つの120B規模の言語モデル(Nemotron-3 Super、GPT-OSS 120B、Qwen3.5 122B)を比較します。
  • Nemotron-3 SuperはGPT-OSS 120Bより品質がわずかに高いですが、GPT-OSS 120Bの方が約2倍の速さです。
  • GPT-OSS 120Bは約77t/sを達成する一方、Nemotron-3 SuperとQwen3.5 122Bは約35t/s程度です。
  • 総合的な品質ランキングは Nemotron-3 Super > GPT-OSS 120B > Qwen3.5 122B であり、実用には速度と忠実度のトレードオフがあることを示唆します。
  • Nemotron-3 Super: Q4_K_M
  • GPT-OSS 120B: MXFP4
  • Qwen3.5 122B: Q4_K_M

総合的には:

  • Nemotron-3 Super > GPT-OSS 120B > Qwen3.5 122B
  • 品質の点では: Nemotron-3 Super は GPT-OSS 120B よりわずかに優れていますが、GPT 120B は2倍速いです。
  • 速度の点では、GPT-OSS 120B は他の2つより2倍速く、約77t/s 対 約35t/s 程度です。
投稿者 /u/albertgao
[リンク] [コメント]