Gemma4-31Bを日本語エージェントコーダーに特化させた — QLoRAファインチューニングとベンチマーク結果
Zenn / 2026/4/4
💬 オピニオンTools & Practical UsageModels & Research
要点
- Gemma4-31Bを日本語のエージェントコーダー用途に最適化するため、QLoRAによるファインチューニング手順と狙いが示されている。
- 日本語のコーディング文脈での性能を評価するベンチマーク結果を通じて、汎用モデルからの転用効果が検証されている。
- 学習コストを抑えつつ(QLoRA)特定タスクに寄せる方針の有効性が、実験ベースで共有されている。
- エージェントコーダーとしての動作を想定したモデル調整の考え方が、再現・応用の観点で整理されている。
はじめに
Google の Gemma4-31B-IT を QLoRA でファインチューニングし、日本語でのエージェント型コーディングに特化したモデルを作成しました。
目的は Claude Code のローカルサブエージェントとして使うこと。API トークンを消費せず、ファイル探索・コードレビュー・テスト実行などのルーチン作業をローカル LLM に委譲します。
モデル: Tsunamayo7/gemma4-31b-ja-agent-coder
ベンチマーク比較
12 カテゴリで学習前後を比較しました。各基準 0-1 のスコアをカテゴリ平均(10 点満点)で評価。
カテゴリ
...
この記事の続きは原文サイトでお読みいただけます。
原文を読む →


