Gemma4-31Bを日本語エージェントコーダーに特化させた — QLoRAファインチューニングとベンチマーク結果

Zenn / 4/4/2026

💬 OpinionTools & Practical UsageModels & Research

Key Points

  • Gemma4-31Bを日本語のエージェントコーダー用途に最適化するため、QLoRAによるファインチューニング手順と狙いが示されている。
  • 日本語のコーディング文脈での性能を評価するベンチマーク結果を通じて、汎用モデルからの転用効果が検証されている。
  • 学習コストを抑えつつ(QLoRA)特定タスクに寄せる方針の有効性が、実験ベースで共有されている。
  • エージェントコーダーとしての動作を想定したモデル調整の考え方が、再現・応用の観点で整理されている。
はじめに Google の Gemma4-31B-IT を QLoRA でファインチューニングし、日本語でのエージェント型コーディングに特化したモデルを作成しました。 目的は Claude Code のローカルサブエージェントとして使うこと。API トークンを消費せず、ファイル探索・コードレビュー・テスト実行などのルーチン作業をローカル LLM に委譲します。 モデル: Tsunamayo7/gemma4-31b-ja-agent-coder ベンチマーク比較 12 カテゴリで学習前後を比較しました。各基準 0-1 のスコアをカテゴリ平均(10 点満点)で評価。 カテゴリ ...

Continue reading this article on the original site.

Read original →