| https://huggingface.co/unsloth/gemma-4-26B-A4B-it-GGUF https://huggingface.co/unsloth/gemma-4-31B-it-GGUF https://huggingface.co/unsloth/gemma-4-E4B-it-GGUF https://huggingface.co/unsloth/gemma-4-E2B-it-GGUF https://huggingface.co/collections/google/gemma-4 Gemma 4 の新機能 https://www.youtube.com/watch?v=jZVBoFOJK-Q Gemma は Google DeepMind が構築したオープンモデルのファミリーです。Gemma 4 のモデルはマルチモーダルで、テキストと画像の入力を扱い(小型モデルでは音声にも対応)テキスト出力を生成します。今回のリリースには、事前学習済みおよび指示チューニング版の両方におけるオープンウェイトモデルが含まれます。Gemma 4 は最大 256K トークンのコンテキストウィンドウを備え、140 を超える言語における多言語対応を維持しています。 Dense および Mixture-of-Experts(MoE)アーキテクチャの両方を特徴としており、Gemma 4 はテキスト生成、コーディング、推論といったタスクに適しています。モデルは E2B、E4B、26B A4B、31B の 4 つの異なるサイズで利用可能です。サイズの幅があることで、高性能なスマートフォンからノートパソコン、サーバーまで幅広い環境に展開でき、最先端 AI へのアクセスを民主化します。 Gemma 4 は重要な 能力およびアーキテクチャ上の進歩 を導入します:
モデル概要Gemma 4 のモデルは、各サイズにおいて最前線レベルの性能を提供するよう設計されており、モバイルおよびエッジデバイス(E2B、E4B)から、コンシューマー向け GPU およびワークステーション(26B A4B、31B)までの導入シナリオを対象としています。推論、エージェント型ワークフロー、コーディング、マルチモーダルな理解に適しています。 これらのモデルは、ローカルのスライディングウィンドウ注意とフルのグローバル注意をインターリーブするハイブリッド注意メカニズムを採用しており、最終層は常にグローバルになります。このハイブリッド設計により、軽量モデルの処理速度と低いメモリフットプリントを実現しつつ、複雑で長いコンテキストのタスクに必要な深い理解は失いません。長いコンテキストに向けてメモリを最適化するために、グローバル層では Keys と Values を統一し、Proportional RoPE(p-RoPE)を適用します。 主要な能力 Gemma 4 のモデルは、テキスト、ビジョン、音声にまたがる幅広いタスクを扱います。主な能力は以下のとおりです:
[link] [comments] |
Gemma 4がリリースされました
Reddit r/LocalLLaMA / 2026/4/3
📰 ニュースSignals & Early TrendsIndustry & Market MovesModels & Research
要点
- Google DeepMindの新しいオープンウェイト・モデルファミリーであるGemma 4がリリースされました。テキストと画像を入力として受け取り、テキストを出力します(小型モデルでは音声にも対応)。
- このリリースには、4つのサイズ(E2B、E4B、26B、31B)それぞれに対する、事前学習済みモデルと指示チューニング版の両方が含まれています。モバイル端末からサーバーまで幅広い展開が可能です。
- Gemma 4は非常に長いコンテキストウィンドウをサポートしており、小型モデルで最大128Kトークン、中型モデルで最大256Kトークンです。加えて、140以上の言語にわたる多言語対応を維持しています。
- アーキテクチャとしては、DenseとMixture-of-Experts(MoE)の両方の設計が用意されており、構成可能な「思考モード」を備えた高性能な“reasoner(推論器)”として位置づけられています。
- 画像にとどまらず、E2B/E4Bモデルでは動画と音声を含むモダリティを拡張しており、コーディング能力やエージェント的な能力の向上を強調しています。




