Gemma4 26bをOllamaで動かした際のコンテキストサイズ別のメモリ使用量
Zenn / 2026/4/7
💬 オピニオンDeveloper Stack & InfrastructureTools & Practical UsageModels & Research
要点
- Gemma4 26bをOllamaで動作させたとき、コンテキストサイズ(入力長)が増えるにつれてメモリ使用量がどう変化するかを整理しています。
- コンテキスト長ごとに必要メモリの増え方を把握することで、ローカル/手元環境での運用可否を見積もれる内容です。
- モデル自体のサイズ(26b)に加えて、実際にはコンテキスト設定が推論時のメモリ負荷を左右する点が重要なポイントです。
- 図や計測結果の観点から、目的(長文入力/要約/チャット)に応じたコンテキスト上限の設計指針になります。
OpenWebUI→Ollamaの構成で、gemma4:26bをデフォルト設定で動かしたところ、メモリ使用量が38GBとGPU(32GB)から溢れてしまいました。
32GBに載せられるようにコンテキストサイズを調整しながらメモリ使用量を確認したので、その際の結果を残しておきます。
gemma4:26bのイメージサイズ
イメージサイズ自体は17GBと何とかなるレベル。
# ollama ls
NAME ID SIZE MODIFIED
gemma4:26b 5571076f3d70 17 ...
この記事の続きは原文サイトでお読みいただけます。
原文を読む →



