ローカルで8GB VRAM向けにGemma 4を微調整できるようになりました(バグ修正付き)

Reddit r/LocalLLaMA / 2026/4/7

📰 ニュースSignals & Early TrendsTools & Practical UsageModels & Research

要点

  • Unslothの無料ノートブック(E2B/E4B)を使うことで、ローカル環境でGemma 4を微調整できるようになり、特にGemma-4-E2Bは8GB VRAMが必要とされています。
  • Unslothは、既存のFA2比で約1.5倍高速で、VRAM消費も約50%削減できると主張しています。
  • Gemma 4の学習に関する複数の不具合が修正され、勾配蓄積で損失が爆発する問題や、26B/31B推論時のIndex Errorなどが改善されています。
  • `use_cache=False`でE2B/E4Bの出力が文字化けする問題、float16の音声周りでのオーバーフロー(-1e9)なども修正対象として挙げられています。
  • 26B-A4B/31Bの学習やUnsloth StudioのUI経由での学習、Vision/Text/Audioに加え推論対応も案内されています。
You can now fine-tune Gemma 4 locally 8GB VRAM + Bug Fixes

みなさん、無料のUnslothノートブックでGemma 4 E2BとE4Bをいまローカルでファインチューニングできるようになりました!ローカルでGemma-4-E2Bを学習するには8GB VRAMが必要です。UnslothはFA2のセットアップよりも、約50%少ないVRAMで約1.5倍速くGemma 4を学習します: https://github.com/unslothai/unsloth

また、Gemma 4の学習について見つけてバグ修正も行いました:

  1. 勾配蓄積(grad accumulation)が原因で損失が爆発することはなくなりました。以前は損失が300〜400になるのを見かけたかもしれませんが、今は10〜15になるはずです。Unslothでこの問題を修正済みです。
  2. 推論(inference)で26Bと31Bに対するIndex Error:transformersを使うと26Bと31Bの推論が失敗してしまいます。こちらを修正しました。
  3. use_cache=False を使うとE2B、E4Bで文字化けする問題がありました:https://github.com/huggingface/transformers/issues/45242
  4. float16音声:-1e9がfloat16でオーバーフローします

さらに、26B-A4Bおよび31Bも学習できます。あるいは、Unsloth StudioでUI経由で学習することも可能です。Studioとノートブックは、Vision、Text、Audio、そして推論に対応しています。

バグ修正の詳細やコツ・裏技は、ブログ/ガイドをお読みください: https://unsloth.ai/docs/models/gemma-4/train

無料のColabノートブック:

E4B + E2B(Studio Web UI) E4B(Vision + Text)-Vision.ipynb) E4B(Audio)-Audio.ipynb) E2B(Run + Text)-Text.ipynb)

みなさん、ありがとう!

submitted by /u/danielhanchen
[link] [comments]