| みなさん、無料のUnslothノートブックでGemma 4 E2BとE4Bをいまローカルでファインチューニングできるようになりました!ローカルでGemma-4-E2Bを学習するには8GB VRAMが必要です。UnslothはFA2のセットアップよりも、約50%少ないVRAMで約1.5倍速くGemma 4を学習します: https://github.com/unslothai/unsloth また、Gemma 4の学習について見つけてバグ修正も行いました:
さらに、26B-A4Bおよび31Bも学習できます。あるいは、Unsloth StudioでUI経由で学習することも可能です。Studioとノートブックは、Vision、Text、Audio、そして推論に対応しています。 バグ修正の詳細やコツ・裏技は、ブログ/ガイドをお読みください: https://unsloth.ai/docs/models/gemma-4/train 無料のColabノートブック:
みなさん、ありがとう! [link] [comments] |
ローカルで8GB VRAM向けにGemma 4を微調整できるようになりました(バグ修正付き)
Reddit r/LocalLLaMA / 2026/4/7
📰 ニュースSignals & Early TrendsTools & Practical UsageModels & Research
要点
- Unslothの無料ノートブック(E2B/E4B)を使うことで、ローカル環境でGemma 4を微調整できるようになり、特にGemma-4-E2Bは8GB VRAMが必要とされています。
- Unslothは、既存のFA2比で約1.5倍高速で、VRAM消費も約50%削減できると主張しています。
- Gemma 4の学習に関する複数の不具合が修正され、勾配蓄積で損失が爆発する問題や、26B/31B推論時のIndex Errorなどが改善されています。
- `use_cache=False`でE2B/E4Bの出力が文字化けする問題、float16の音声周りでのオーバーフロー(-1e9)なども修正対象として挙げられています。
- 26B-A4B/31Bの学習やUnsloth StudioのUI経由での学習、Vision/Text/Audioに加え推論対応も案内されています。




