GPUアクセラレーションされたLLM:1Mトークン/秒での提供、Voxtral TTS、そして4-bit重み量子化

Dev.to / 2026/3/28

📰 ニュースDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical UsageIndustry & Market MovesModels & Research

要点

  • 報告されているベンチマークでは、vLLM v0.18.0が96台のNVIDIA B200 GPUsを用いて、Qwen 3.5 27Bを1,000,000トークン/秒超で提供していることが示されており、適切な構成により推論スループットを極限まで引き上げられることを実証しています。
  • このベンチマークは最適化に関する洞察も強調しています。モデル規模がこの程度の場合、テンソル並列(TP=8)よりデータ並列(DP=8)のほうがスループットをほぼ4倍に高めているようです。これは、テンソル並列に伴う通信オーバーヘッドがその利点を上回っている可能性があるためです。
  • 記事では、96台のB200は一般に広く利用できない一方で、DPとTPの指針は、より小規模なマルチGPUやセルフホスト環境にも適用でき、トークンスループットと応答性を改善するのに役立つと述べています。
  • また、Mistral AIがVoxtral TTSをリリースする計画についても言及しています。これはオープンウェイトの3Bパラメータのテキスト・トゥ・スピーチ(TTS)モデルで、ElevenLabs Flash v2.5を上回るという主張がされています。
  • 最後に、TurboQuantの4-bit重み量子化アプローチに触れており、メモリ使用量を約3.2倍削減できるとして、ハードウェアコストを抑えつつローカルでのLLM展開をより現実的にすることを目指しています。

GPU-Accelerated LLMs: 1Mトク/sで提供、Voxtral TTS、そして4-bit重み量子化

今週の注目ポイント

今週は、B200 GPU上で毎秒100万トークンに到達する最先端のLLM提供性能を深掘りし、Mistral AIの新しいオープンウェイトVoxtral TTSモデルを検証し、そしてTurboQuantの4-bit重み量子化によって3.2倍のメモリ削減でローカルLLMを最適化します。

B200 GPU上でQwen 3.5 27Bを毎秒1Mトークン提供(r/MachineLearning)

出典: https://reddit.com/r/MachineLearning/comments/1s4hxgu/d_1m_tokenssecond_serving_qwen_35_27b_on_b200/

本レポートは、vLLM v0.18.0を用い、96台のB200 GPUでQwen 3.5 27Bを毎秒100万トークンを超える速度で提供できたという、驚くべき達成を詳述しています。中核となる発見は、LLM提供の最適化に関する重要な示唆です。すなわち、この特定のモデル規模では、データ並列(DP=8)がテンソル並列(TP=8)に比べてスループットをほぼ4倍に引き上げたことが判明しました。これは、Qwen 3.5 27Bのような中程度のサイズのモデルでは、テンソル並列に伴う通信オーバーヘッドがその利点を相殺してしまい、複数GPUにわたって推論速度を最大化するにはデータ並列の方が効率的になり得ることを示唆しています。

ローカル、あるいはセルフホスト環境での推論セットアップの限界に挑みたい開発者にとって、こうした並列化戦略に関する洞察は特に価値があります。96台のB200によるクラスタは多くの人にとって現実的ではありませんが、トークンスループットのためにvLLMを最適化するという根本原理や、テンソル並列よりもデータ並列を優先すべきタイミングを理解することは、より小規模なマルチGPU環境にもそのまま適用できます。本ベンチマークは、ハードウェアがスケールするにつれても、大規模モデルをより利用しやすく、高性能にするための進歩が継続していることを示しています。詳細な手順は、vLLMの導入を微調整したい人にとって、実際的な設計図となります。複数GPUを搭載した単一の強力なワークステーションであっても、小規模なローカルクラスタであっても、LLM対応アプリケーションにおいて最適な効率と応答性を実現できるようにします。

コメント: 1Mトク/sは正気じゃない、96台のB200でも。自分のRTX 5090 1枚だと、vLLMにおけるDPとTPのトレードオフを理解するのは、特にバッチングするときに、最後の1トークンまで絞り出すうえでまだまだ重要です。これらの洞察がコンシューマ向けハードにどのように反映されるのか、見ていきたいです。

Mistral AIがオープンウェイトのVoxtral TTSをリリースへ。ElevenLabs Flash v2.5を上回る(r/LocalLLaMA)

出典: https://reddit.com/r/LocalLLaMA/comments/1s46ylj/mistral_ai_to_release_voxtral_tts_a/

Mistral AIはVoxtral TTSをリリースする予定です。これは、待望されているオープンウェイトの3B(30億)パラメータのテキスト読み上げ(TTS)モデルです。このモデルは、人間の嗜好テストにおいてElevenLabs Flash v2.5を上回ると報告されており、ローカルで動かせるTTS品質の新たなベンチマークを打ち立てています。重要なのは、セルフホストする開発者にとってVoxtral TTSはメモリ使用量が非常に小さく、必要メモリはおよそ3GBのRAMだけだという点です。これにより、RTX GPUのようなコンシューマ向けのハードウェアへの展開に非常に適しています。

さらに、このモデルは90ミリ秒のTTA(time-to-first-audio:初回音声までの時間)を達成し、9言語に対応しています。これにより、高品質な音声合成をアプリケーションへ統合するための、汎用的で低遅延のソリューションが提供されます。今回のリリースは、ローカルAIプロジェクト、エッジデバイス、あるいはセルフホスト型エージェントに高度なTTS機能を組み込みたい開発者にとって、まさにゲームチェンジャーです。専用のAPIに頼らず、巨大なクラウド基盤にも依存せずに実現できます。オープンウェイトが利用可能であることで、モデルを完全に制御でき、特定のユースケースに合わせて微調整したり適応させたりすることが可能になります。

コメント: ElevenLabs 上回って、3GBのVRAMで動くオープンウェイトTTS?これは必ず試すべきです。これをローカルでエージェントの音声フィードバックに使ったり、RTX 5090上で動かすカスタムチャットUIに統合したりできるところを想像しています。APIコストとはさようなら。

TurboQuant for Weights:3.2×メモリ削減を実現する、ほぼ最適な4-bit LLM量子化(r/LocalLLaMA)

出典: https://reddit.com/r/LocalLLaMA/comments/1s51b5h/turboquant_for_weights_nearoptimal_4bit_llm/

本項目では、モデルの重み圧縮のためのTurboQuantアルゴリズムの適応が紹介されており、印象的な3.2×のメモリ削減を伴う、ほぼ最適な4-bit LLM量子化を約束します。大きな性能低下や精度低下を犠牲にすることが多い量子化方式とは異なり、TurboQuantは「損失のない8-bitの残差(lossless 8-bit residual)」を目指しているとされており、高い忠実度を得るアプローチであることが示唆されています。ローカルのRTX GPUでVRAMの制約に悩む開発者にとって、これは大きな飛躍です。これまで到達できなかった、はるかに大規模なモデルの実行を可能にする可能性があります。

実装は「nn.Linearのドロップイン置換(drop-in replacement)」として説明されており、既存のPyTorchベースのLLMワークフローへの組み込みやすさがうかがえます。この実用的な使い方により、大規模なリファクタリングなしで、開発者はTurboQuantを自分のモデルに適用する実験をすぐに始められます。LLM重みのメモリ使用量を大幅に削減することで、この手法はローカルLLM開発と推論における最大のボトルネックの1つに直接対処します。セルフホスト基盤上で、より強力で複雑なアプリケーションを構築するための新たな可能性が開けます。

コメント: LLM重みで3.2倍のメモリ削減ができて、しかも「nn.Linearのドロップイン置換」?これは、私のRTX 5090に昨日必要だった魔法みたいな話に聞こえます。より大きいモデルを動かすのが常に目標で、次の100Bパラメータ級の化け物をVRAMに収める鍵になり得ます。

広告