量子化したGemma 4 26BをOllama経由でMac mini M4(24GB)上に乗せて4日間動かした所感

Reddit r/LocalLLaMA / 2026/4/7

💬 オピニオンSignals & Early TrendsTools & Practical Usage

要点

  • RedditユーザーがMac mini M4(24GB)上でOllama経由にGemma 4 26Bを量子化モデルとして4日間動かした所感を共有している。
  • 構造化タスク、コード生成、JSON形式の出力、指示追従といった“手順が明確な作業”では性能が良いと評価している。
  • Apache 2.0ライセンスで商用製品への組み込み・出荷が可能な点が、ローカル運用の安心材料になっているとしている。
  • 一方で、複数ステップの推論や自己修正、エージェント的なワークフロー(Hermes Agent)では3〜4ステップ後に文脈を失い、ループや矛盾した出力が起きやすいと述べている。
  • そのため、同モデルは“単純で反復可能なタスクはローカル、判断が必要な作業はクラウドAPI”にルーティングするのが現状の最適解だと結論づけている。

mac mini m4(24GB)で ollama 経由で動かしています

ちゃんとしていて良い用途: 構造化されたタスク、コード生成、JSON のフォーマット、特定の指示に従うこと。Apache 2.0 ライセンスなので、実際に商用製品として出荷できます

うまくいかないところ: 多段階の推論と自己修正。エージェンティックなワークフローに使うため、hermes agent で試しましたが、3〜4 ステップ後に話の筋が途切れます。結果としてループに入ったり、以前に出した出力と矛盾したりします

私にとっての最適な使いどころは、単純で繰り返し可能なタスクはローカルの gemma に振り分け、実際の判断が必要なものはクラウドの API に任せることです。なんでもやらせようとすると、その穴がより目立つだけです

投稿者: /u/virtualunc
[link] [comments]