本日、Off GridでGemma 4(E2BおよびE4Bのエッジバリアント)を出荷しました。AndroidおよびiOS向けの、オープンソースでオフライン・ファーストのAIアプリです。これが他のローカルLLMの構成と何が違うのかというと:→ サーバーなし、Pythonなし、ノートPCなし。端末内のNPU/CPUだけで完全に動作します。 → Gemma 4の128Kコンテキストウィンドウを、すべてオンデバイスで—モバイルで長いドキュメントやコードにようやく本当に役立つ形に。 → ネイティブ対応のビジョン:カメラを何かに向けて、Gemma 4にそれについて尋ねられます。 → Whisperの音声からテキストへの変換、Stable Diffusionの画像生成、ツール呼び出し—これらを1つのアプリに統合。 → Snapdragon 8 Gen 3 / Apple A17 Proで約15〜30 tok/s。 → Apache 2.0のモデル、MITのアプリ—最後の最後まで、本物のオープンさです。スマホでRAM 1.5GB未満の環境でE2BバリアントのGemma 4が動くのは、正直かなり衝撃的です。128Kコンテキスト+ビジョンのE4Bは、私たちが待ち望んでいたものです。 Android(現在公開中):https://play.google.com/store/apps/details?id=ai.offgridmobile iOS:近日公開 GitHub(MIT):https://github.com/alichherawalla/off-grid-mobile-ai さまざまなデバイスで実際に見えているtok/sの数値をぜひ聞きたいです。下に書き込んでください。 [リンク] [コメント]




