前半:【導入・テスト編】 続・ローカルLLM環境をWSL2(Ubuntu)+Docker+Ollama(Gemma4)で構築してみた

Zenn / 2026/4/9

💬 オピニオンDeveloper Stack & InfrastructureTools & Practical Usage

要点

  • WSL2(Ubuntu)上にDockerを用意し、ローカルLLM環境を構築する手順(導入・テスト編)を扱っています。
  • Ollamaを使ってGemma4を動かし、ローカルでLLMを実行して動作確認する流れが中心です。
  • Windows開発環境とコンテナ技術を組み合わせ、セットアップとテストを現実的に進める観点が示されています。
  • ローカルLLMのための構成要素(WSL2/Docker/Ollama/モデル)の組み合わせを、再現しやすい形で整理しています。
はじめに 2026年4月、Googleから新たなオープンモデル「Gemma 4」がリリースされました。 前回の記事では Gemma 3 を構築しましたが、今回はその環境をそのまま活かして、最新の Gemma 4 へとアップデートしてみます。 特に今回は、VRAM 12GBの環境でどこまで動くのかを検証するため、性能重視の 26B モデルと、軽量な E4B モデルの2種類を導入してみます。 環境 引き続き、NVIDIA RTX 3060 を積んだゲーミングPCを利用します。 PCのローカル環境を汚したくないので、WSL2のUbuntu上のDockerを使って構築します。 ...

この記事の続きは原文サイトでお読みいただけます。

原文を読む →