オフグリッドでGemma 4のサポートを出荷しました(オープンソースのモバイルアプリ):クラウドなしのオンデバイス推論。Androidはライブ、iOSは近日対応予定。

Reddit r/LocalLLaMA / 2026/4/9

📰 ニュースSignals & Early TrendsTools & Practical UsageIndustry & Market Moves

要点

  • オフグリッド(オープンソースでオフラインファーストのAIモバイルアプリ)が本日、Android向けにGemma 4のサポートを出荷しました。iOSは近い将来に予定されています。
  • このアプリは、Gemma 4をすべて端末上で動作させます(サーバーなし、Python/ラップトップなし)。端末のNPU/CPUを活用してローカル推論を行います。
  • モバイルで実用的な長文書やコード利用を可能にするため、Gemma 4の128Kコンテキストウィンドウを追加しました。さらに、カメラを対象物に向けることでネイティブなビジョンにも対応します。
  • 今回のリリースには、Whisperの音声からテキストへの変換、Stable Diffusionによる画像生成、そして単一アプリ内でのツール呼び出しといった追加機能がまとめて含まれています。
  • Snapdragon 8 Gen 3およびApple A17 Proにおけるパフォーマンス目標は、おおむね15〜30トークン/秒とされており、チームはApache-2.0のオープンモデルとMITライセンスのアプリである点を強調しています。
本日、Off GridでGemma 4(E2BおよびE4Bのエッジバリアント)を出荷しました。AndroidおよびiOS向けの、オープンソースでオフライン・ファーストのAIアプリです。これが他のローカルLLMの構成と何が違うのかというと:→ サーバーなし、Pythonなし、ノートPCなし。端末内のNPU/CPUだけで完全に動作します。 → Gemma 4の128Kコンテキストウィンドウを、すべてオンデバイスで—モバイルで長いドキュメントやコードにようやく本当に役立つ形に。 → ネイティブ対応のビジョン:カメラを何かに向けて、Gemma 4にそれについて尋ねられます。 → Whisperの音声からテキストへの変換、Stable Diffusionの画像生成、ツール呼び出し—これらを1つのアプリに統合。 → Snapdragon 8 Gen 3 / Apple A17 Proで約15〜30 tok/s。 → Apache 2.0のモデル、MITのアプリ—最後の最後まで、本物のオープンさです。スマホでRAM 1.5GB未満の環境でE2BバリアントのGemma 4が動くのは、正直かなり衝撃的です。128Kコンテキスト+ビジョンのE4Bは、私たちが待ち望んでいたものです。 Android(現在公開中):https://play.google.com/store/apps/details?id=ai.offgridmobile iOS:近日公開 GitHub(MIT):https://github.com/alichherawalla/off-grid-mobile-ai さまざまなデバイスで実際に見えているtok/sの数値をぜひ聞きたいです。下に書き込んでください。 
submitted by /u/CamusCave
[リンク] [コメント]