Qwenが閉じ始めたのでGemma 4を選んだ——GPUなしPCでローカルLLMをファインチューニング

Zenn / 2026/5/4

💬 オピニオンDeveloper Stack & InfrastructureTools & Practical UsageModels & Research

要点

  • Qwenの提供方針の変化(閉じ始め)を受け、代替としてGemma 4を選びGPUなしPCでもローカルLLMを扱う方針を示しています。
  • GPU環境がない条件でも、ローカルでLLMを動かし、ファインチューニングまで実施する手順・考え方に焦点を当てています。
  • モデル選定が運用コストや実現可能性(手元環境での学習・改善)に直結することを実例ベースで説明しています。
  • クローズド/クローズ寄りなモデルのリスクに対し、オープン寄りモデルを使った開発・改善の継続性を優先する示唆があります。
ローカルLLMをファインチューニング(FT)してみたかった。 クラウドのAPIでFTしたことはある。でもあれはマネージドサービスの話。手元のPCで、自分だけのLLMを育てるのは別の世界だと思ってた。GPUも積んでないし。 調べてみたら、Colabで無料GPU借りればすぐできた。ただ、FTそのものより どのモデルを選ぶか の方がずっと悩んだ。 モデルが多すぎる 2026年5月時点で、FTできるオープンモデルはざっとこれだけある。 モデル パラメータ 推論RAM 日本語 ライセンス 出元 Qwen 3.5-27B 27B ~16GB ◎ Apache 2.0 Alibaba...

この記事の続きは原文サイトでお読みいただけます。

原文を読む →