前半:【導入・テスト編】 続・ローカルLLM環境をWSL2(Ubuntu)+Docker+Ollama(Gemma4)で構築してみた
Zenn / 2026/4/9
💬 オピニオンDeveloper Stack & InfrastructureTools & Practical Usage
要点
- WSL2(Ubuntu)上にDockerを用意し、ローカルLLM環境を構築する手順(導入・テスト編)を扱っています。
- Ollamaを使ってGemma4を動かし、ローカルでLLMを実行して動作確認する流れが中心です。
- Windows開発環境とコンテナ技術を組み合わせ、セットアップとテストを現実的に進める観点が示されています。
- ローカルLLMのための構成要素(WSL2/Docker/Ollama/モデル)の組み合わせを、再現しやすい形で整理しています。
はじめに
2026年4月、Googleから新たなオープンモデル「Gemma 4」がリリースされました。
前回の記事では Gemma 3 を構築しましたが、今回はその環境をそのまま活かして、最新の Gemma 4 へとアップデートしてみます。
特に今回は、VRAM 12GBの環境でどこまで動くのかを検証するため、性能重視の 26B モデルと、軽量な E4B モデルの2種類を導入してみます。
環境
引き続き、NVIDIA RTX 3060 を積んだゲーミングPCを利用します。
PCのローカル環境を汚したくないので、WSL2のUbuntu上のDockerを使って構築します。
...
この記事の続きは原文サイトでお読みいただけます。
原文を読む →

