通知シェードからリアルタイムにAI生成コンテンツを検出するため、ONNX経由でViTモデルを端末内で実行するAndroidアプリを作った

Reddit r/LocalLLaMA / 2026/3/26

💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage

要点

  • 個人開発者が、Vision Transformer(ViT)モデルをONNX Runtime向けにエクスポートし最適化した上で、端末内(オンデバイス)でAI生成コンテンツ検出を行うAndroidアプリを開発した。
  • このアプリは、通知シェード内のAndroidのクイックタイルと統合し、現在のアプリを離れることなく画面上のコンテンツを取り込み、素早くリアルタイムな解析を可能にしている。
  • 推論(インファレンス)は完全にオフラインで行われ、サーバーへの呼び出しはない。モデルをモバイル向けに軽量に保ちつつ、実用に足る精度を維持することを目指している。
  • 現在の検出モデルは不完全であり、生成コンテンツの品質は急速に向上しているため、本プロジェクトは現実的な「つなぎ」として位置づけられている。
  • アプリは「AI Detector QuickTile Analysis」という名称でGoogle Playストアで無料提供されており、フィードバックも共有されている。
通知シェードからリアルタイムにAI生成コンテンツを検出するために、ONNX経由で端末上でViTモデルを動かすAndroidアプリを作りました

ひとり開発として取り組んでいるプロジェクトを共有したくて投稿しました。これは、ONNX Runtime を使って最適化した Vision Transformer モデルを端末上で直接実行し、AI生成の画像や動画をローカルで検出する Android アプリです。

技術的に面白いのは Quick Tile の統合です。これは Android の通知シェード内に配置され、あなたがいま使っているアプリを離れることなく、その画面に表示されているものを解析用に取り込みます。推論は、ほとんどの最新端末で非常に高速です。

このモデルは解析自体のためのサーバー呼び出しなしで完全にオフラインで動作します。モバイルでのフットプリントが小さくなるように、ONNX 形式で最適化しつつ、そこそこ良い精度を維持しました。

添付の動画では、Seedance 2.0 で生成されたバイラルな「ブラッド・ピット vs トム・クルーズ」の試合に対してテストしています。

もちろん、検出モデルは完璧ではありません。特に生成モデルはどんどん進化しています。とはいえ、端末上でローカルに動いて、すぐ使えて手軽な何かがあるのは、まったく何もないよりずっと良いと思います。

アプリの名前は AI Detector QuickTile Analysis で、Play ストアで無料です。ぜひ皆さんの意見を聞かせてください!

submitted by /u/No-Signal5542
[link] [comments]