4 days on gemma 4 26b quantized, honest notes

Reddit r/LocalLLaMA / 4/7/2026

💬 OpinionSignals & Early TrendsTools & Practical Usage

Key Points

  • RedditユーザーがMac mini M4(24GB)上でOllama経由にGemma 4 26Bを量子化モデルとして4日間動かした所感を共有している。
  • 構造化タスク、コード生成、JSON形式の出力、指示追従といった“手順が明確な作業”では性能が良いと評価している。
  • Apache 2.0ライセンスで商用製品への組み込み・出荷が可能な点が、ローカル運用の安心材料になっているとしている。
  • 一方で、複数ステップの推論や自己修正、エージェント的なワークフロー(Hermes Agent)では3〜4ステップ後に文脈を失い、ループや矛盾した出力が起きやすいと述べている。
  • そのため、同モデルは“単純で反復可能なタスクはローカル、判断が必要な作業はクラウドAPI”にルーティングするのが現状の最適解だと結論づけている。

running it on a mac mini m4 24gb via ollama

legitimately good for: structured tasks, code generation, json formatting, following specific instructions. the apache 2.0 license means you can actually ship commercial products on it

where it falls apart: multi-step reasoning and self correction. tried it with hermes agent for agentic workflows and it loses the thread after 3-4 steps. ends up in loops or contradicts its own earlier output

sweet spot for me is routing simple repeatable tasks to gemma locally and anything needing real judgement to cloud apis. trying to make it do everthing just highlights the gaps

submitted by /u/virtualunc
[link] [comments]