Qwenが閉じ始めたのでGemma 4を選んだ——GPUなしPCでローカルLLMをファインチューニング
Zenn / 5/4/2026
💬 OpinionDeveloper Stack & InfrastructureTools & Practical UsageModels & Research
Key Points
- Qwenの提供方針の変化(閉じ始め)を受け、代替としてGemma 4を選びGPUなしPCでもローカルLLMを扱う方針を示しています。
- GPU環境がない条件でも、ローカルでLLMを動かし、ファインチューニングまで実施する手順・考え方に焦点を当てています。
- モデル選定が運用コストや実現可能性(手元環境での学習・改善)に直結することを実例ベースで説明しています。
- クローズド/クローズ寄りなモデルのリスクに対し、オープン寄りモデルを使った開発・改善の継続性を優先する示唆があります。
ローカルLLMをファインチューニング(FT)してみたかった。
クラウドのAPIでFTしたことはある。でもあれはマネージドサービスの話。手元のPCで、自分だけのLLMを育てるのは別の世界だと思ってた。GPUも積んでないし。
調べてみたら、Colabで無料GPU借りればすぐできた。ただ、FTそのものより どのモデルを選ぶか の方がずっと悩んだ。
モデルが多すぎる
2026年5月時点で、FTできるオープンモデルはざっとこれだけある。
モデル
パラメータ
推論RAM
日本語
ライセンス
出元
Qwen 3.5-27B
27B
~16GB
◎
Apache 2.0
Alibaba...
Continue reading this article on the original site.
Read original →


