M5 MacBookでGemma-4 26B-A4B + Opencodeを使うと、*実際にかなり良い*

Reddit r/LocalLLaMA / 2026/4/3

💬 オピニオンSignals & Early TrendsTools & Practical UsageModels & Research

要点

  • ユーザーは、32GBのM5 MacBook Air上でGemma-4 26B-A4Bの量子化モデルが問題なく動作すると報告しており、低電力モードでもプロンプトのスループットが高く、発熱や騒音が少ない点を挙げています。
  • 同じ構成は、以前のノートPC体験(M1 MaxやM4 Mac mini)と比べて、実用的/エージェント型のコーディングワークフローにおいて実質的に大幅に良いと説明されています。特に、プロンプト処理がより速いことと、バッテリー持ちが改善していることが理由です。
  • バッテリー性能はM5で大きく向上したとされており、負荷下で最大で約6時間の稼働が見込める(旧M1 Maxでは約2時間)ため、外出先でのコーディングがより現実的になっています。
  • ユーザーはノートPC上でOpencodeを試し、「使える」と結論づけていますが、追加のユーザーによる手取り足取りがない限り、Claude Codeのようなクローズドソースのコーディングアシスタントの完全なドロップイン代替にはまだなっていないとしています。
  • この記事では、Gemma-4を有力なオープン代替手段として位置づけており、フロンティア系のプロプライエタリ(商用独自)モデルと比べて追加の設定管理に慣れているユーザーほど相性が良い可能性があると述べています。

TL;DR、32gbのM5 MacBook Airなら 300t/s PP12t/s generation で gemma-4-26B-A4B-it-UD-IQ4_XS を動かせます(低電力モードで動作、消費電力は 8W)。その結果、LLMを動かしている間、初めて使うノートPCとして「熱くもならず、うるさくもならない」状況になりました。高速なプロンプト処理+短い思考トレース+実際にエージェント的な挙動に対応できるので、Opencode は自分のノートPCからでもちゃんと使えます!

--

これまで私は M1 Max 64gb で LLM を動かしていました。ですが、いじる程度の用途やおもちゃみたいなケースには十分でしたものの、長めのコンテキストを必要とするものを走らせるのには、正直ずっと「最高」とは言えませんでした……つまり、単純なチャットボットとして使うことはできるけど、それ以外はあまり…という感じです。Pythonで1つのSnakeゲームを作るのは問題ありませんでした。でも、エージェント的なコーディングをしたり、より大きなコードベースに貢献したりしたいような場合には、これまでの環境だとどうしても少しガタついていました。さらに、生成速度を人工的に抑えない限り、何をやってもバッテリーがごりごり減っていきましたし、低電力モードでも壁コンセントから取れるAI利用時間はせいぜい約2時間でした。

また、ホームサーバーっぽい用途を想定して M4 Mac Mini 16gb も入手しました。とはいえ、あのメモリ容量では当然かなり小さなモデルに限られてしまいますし、それでもプロンプト処理速度は特に「自慢できる」ようなものではありませんでしたね(笑)

一方で、32gbのM5はプロンプト処理が本当に機敏です(新しいmatmulコアのおかげ!)。Maxが省電力モードではないときでも、私のM1 Maxよりプロンプト処理が最大で約25%速くなります。そして比較すると、M5はバッテリーの消費が本当に控えめです。たとえOpencodeをずっと全力で回していたとしても、これまでのバッテリーセーバーでのテスト結果からすると、M1 Maxの約2時間に対して利用時間はだいたい約6時間くらいになる見込みです。しかもトータルのバッテリー容量はもっと小さい(70Wh 対 53.8Wh)というのにです。これは良いですね。カフェに行ったときにプラグの近さが足りるか心配しなくてよくなるし、バッテリーが長めの電車通勤の時間まで持つかも気にしなくてよくなります。そういう時間帯は、そもそもインターネット接続が不安定でClaude Codeのようなものを使うのが厳しいのでは……と心配してしまうのと同じ種類のタイミングですから。

で、いちばん大きな疑問:Claude Code(それからAntigravity - 両方使っています)を置き換えるのに十分なのでしょうか?

これに「いいえ」だって、驚く人はいないと思います。少なくとも、これまでの私のテスト結果からすると(笑)

誤解しないでほしいのですが、実際かなり高性能です!それに、すべてのシナリオでクローズドソースのモデルを置き換えるなんて期待されているわけでもないと思います。実際私は、Gemini-2.5-Pro のCursorでの利用枠が尽きて、Gemini-2.5-Flashを使うことになってしまう「1年前に戻る」よりは、Gemma-4-26Bを使う方がいいと感じています。ただしGemma-4は(当然ながら)私の経験上、現在のクローズドなフロンティアモデルよりも、かなり手取り足取りのサポートが必要です。そして、一部の人がそれをありがたいと感じるとしても、私の現時点での意見ではレスポンスがちょっと乾いているというか……です。Opencodeのプロンプトのせいなのか、それともGemma-4が元々そういう話し方をするだけなのかは分かりませんが、乾いたコミュニケーションのスタイルという点で言うなら、Gemma-4 | OpencodeClaude | Claude Code に対する関係と同じで、それは Gemini-3.1-Pro | Antigravity に対するそれと同様です。しかも私は確実にGemini派のほうが好きです(笑)

でもまあ、正直なところ、この種のエージェント的コーディングが「2024年末の時点で」すでにフロンティアモデルで最先端の領域にあり、しかもフロンティアモデルでは少なくとも「そもそも本当に可能ではなかった」なんてことに改めて感謝したくなるような話です。そして今は、それをノートPCのようなサイズで動かしていて、トートバッグに滑り込ませて、ほぼどこでも持ち運んで使えるんです。

submitted by /u/maddie-lovelace
[link] [comments]