Google DeepMindが本日Gemma 4を公開しました:
Gemma 4 31B: 高密度、256Kコンテキスト、効率性と長文コンテキスト品質を狙った再設計アーキテクチャ
Gemma 4 26B A4B: MoE(Mixture of Experts)、総計26B / 1フォワードパスあたり4Bアクティブ、256Kコンテキスト
どちらもネイティブにマルチモーダルです(テキスト、画像、動画、動的解像度)。
ローンチ当日の初日から、同じスタックでNVIDIA B200およびAMD MI355X上に両方とも動かせる状態になっています。B200ではvLLMと比べて出力スループットが15%高いことを確認しています(必要なら、手法の詳細についてもっと共有することもできます)。
何も立ち上げずに試したい場合は無料のプレイグラウンド:https://www.modular.com/#playground
[リンク] [コメント]




