ローカルLLM: Gemma 4 をMac Studioで動かしてみる
Zenn / 4/3/2026
💬 OpinionDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage
Key Points
- Mac Studio上でローカルLLMとしてGemma 4を動かす手順・試行の流れが紹介されています。
- 端末側でモデルを動かす前提で、セットアップや実行時の前提条件(環境・準備物)に触れています。
- ローカル実行により外部APIに依存せず検証できる点が、実務・検証用途に適していることを示しています。
- 実際に動かしてみる形のため、導入検討者が“動作イメージ”を掴みやすい内容になっています。
Gemma 4
Googleがオープンソース(ソフトウェアライセンスがApache 2)でVision/Audioなどもサポートしたマルチモーダルのモデル Gemma 4 をリリースしました。
モバイルやエッジデバイスでも普通に動くし精度が良いなど、そこそこ評判が良さそうでした。
また、Gemini in Android Studioの出来があまり良くなかった(遅いし、間違いが多い)のですが、Android StudioでOllama (ローカルLLM)が使えることが分かり、Geminiの代わりにGemma 4をローカルで試してみようと思いました。ただ、これは次回記事で書く予定でまだ...
Continue reading this article on the original site.
Read original →Related Articles

Black Hat USA
AI Business

Black Hat Asia
AI Business

90000 Tech Workers Got Fired This Year and Everyone Is Blaming AI but Thats Not the Whole Story
Dev.to

Microsoft’s $10 Billion Japan Bet Shows the Next AI Battleground Is National Infrastructure
Dev.to

TII Releases Falcon Perception: A 0.6B-Parameter Early-Fusion Transformer for Open-Vocabulary Grounding and Segmentation from Natural Language Prompts
MarkTechPost