| Pretty fast! Uses around 114watts at its peak, short bursts as the response is usually pretty fast. [link] [comments] |
Gemma 4 26b a4b - MacBook Pro M5 MAX. Averaging around 81tok/sec
Reddit r/LocalLLaMA / 4/3/2026
💬 OpinionSignals & Early TrendsTools & Practical UsageModels & Research
Key Points
- Redditの投稿によると、ローカル推論環境(MacBook Pro M5 Max)でGemma 4 26Bを動作させた際に、応答速度が約81 tok/sec程度とかなり高速に見える。
- ピーク時の消費電力は約114Wで、応答が短時間で返るため電力は「短いバースト」的に上がる傾向があると報告されている。
- 本内容は新モデルの正式リリースではなく、特定ハード上での推論性能・電力挙動に関する実測ベースの“運用感”を共有するもの。
- ローカルLLMを用いる際の期待値(速度と電力のトレードオフ)を掴むための早期トレンド/シグナルとして位置づけられる。
Related Articles

Black Hat USA
AI Business

Black Hat Asia
AI Business

90000 Tech Workers Got Fired This Year and Everyone Is Blaming AI but Thats Not the Whole Story
Dev.to

Microsoft’s $10 Billion Japan Bet Shows the Next AI Battleground Is National Infrastructure
Dev.to

TII Releases Falcon Perception: A 0.6B-Parameter Early-Fusion Transformer for Open-Vocabulary Grounding and Segmentation from Natural Language Prompts
MarkTechPost