基本PSA。PocketPalがアップデートされ、Gemma 4が動くようになりました。

Reddit r/LocalLLaMA / 2026/4/5

💬 オピニオンSignals & Early TrendsTools & Practical Usage

要点

  • PocketPalは最近更新され、著者のAndroidデバイス上でMetaのGemma 4モデル(2Bおよび4B)をうまく実行できるようになりました。
  • この投稿では、PocketPal上で小型のパラメータモデルが素早く確実に動作するため、低RAMのスマホでも実現可能性が高いことが強調されています。
  • 著者は、12GB RAMの電話でより大きなGemma 26Bの量子化モデルを動かすことを試す予定ですが、Androidのオーバーヘッドがそれを妨げるのではないかと見込んでいます。
  • このアップデートは、より高性能なローカル/エッジでのモデル実行へ向かう継続的な流れの一環として位置づけられており、将来的な目標として7〜8Bサイズのモデルが挙げられています。
  • 更新版を利用したいユーザー向けに、PocketPalのGitHubリンクが提供されています。

「Androidでこれを使いたい」系の質問をいくつか見かけたからというわけではありませんが、PocketPal は数時間前にアップデートされていて、Gemma 4 2B と 4B は問題なく動きます。少なくとも私の環境の機材(ショボい小型の moto g84 という主力スマホ)ではそうです。定期的にアップデートが入るアプリ、最高です。

これから、起動直後の状態で、26B の a4 iq2 を 12GB の RAM にねじ込もうとしてみますが、Android の肥大化のせいでできないだろうという確信はほぼあります。

とはいえ、PocketPal なら 2B と 4B は問題なく、しかも素早く動きます。次は 7〜8B(9B ではなく)だといいですね。新しい Qwen 3.5 のモデルはメモリ上限をスキップしますが、古いものはそうではありません。超すごい数字です。OS のオーバーヘッドやコンテキストサイズの必要分を少しだけ抑えれば、12GB RAM のスマホでも実用になります。

ただ、GemmaSutra 4 4B もお願いします。思考のもう一つのゴールドスタンダードであり、しかも(だいぶ)速めです。私たちは彼女を直します。テクノロジーがあります!

https://github.com/a-ghorbani/pocketpal-ai

によって投稿 /u/Sambojin1
[リンク] [コメント]