ローカルLLM 6モデルサイズ別比較:gemma3 / qwen3 / gpt-oss をOllamaで実測

Zenn / 4/30/2026

💬 OpinionTools & Practical UsageModels & Research

Key Points

  • gemma3 / qwen3 / gpt-oss のローカルLLMを、モデルサイズ別にOllama上で実測し、利用感や性能差を比較しています。
  • サイズが変わることで必要なリソースや挙動がどう変化するかを、実測ベースで確認できる内容です。
  • 同一実行基盤としてOllamaを用い、モデル間の差を相対的に見やすくしています。
  • ローカル環境でどのモデルを選ぶべきかの判断材料を、サイズ別の比較として提供します。
ローカルLLM 6モデルサイズ別比較:gemma3 / qwen3 / gpt-oss をOllamaで実測 Ollamaを使ってローカル環境で動かした3ファミリー・6サイズのLLMを、5つのユースケースカテゴリで定量的にベンチマークしました。「どのモデル・サイズを選ぶか」の判断材料として活用してください。 実験環境・設定 ハードウェア 項目 値 GPU NVIDIA GeForce RTX 4060(VRAM 8 GB) CPU Intel Core i5-13500(13th Gen) RAM 64 GB OS Windows 11 + WSL...

Continue reading this article on the original site.

Read original →