| ExecuTorchを使って、モバイル上でOpenAIのプライバシーフィルターモデルを動かす実験をしていました。もし同じような課題に取り組んでいる人の役に立つなら共有します。 セットアップ: このモデルは、メール、ドキュメント、チャットログ、貼り付けメモ、トランスクリプトなど、任意のテキストを扱い、それらすべてに対して敏感な内容をかなりうまくフラグ付けしてくれます。品質は思っていたよりも良好で、単なる些細なパターン照合だけでなく、実際にフラグを立てたい種類のPIIやセンシティブな情報をきちんと拾ってくれます。 プライバシーフィルタリングは、テキストがセンシティブかどうかを確認するためにクラウドAPIへテキストを送るというのが、ずっと少しばかり逆方向になっているタイプのタスクの一つです。これが最も有用な入力のクラス――下書き、社内ドキュメント、エクスポートしたチャット履歴、スキャン/OCRしたドキュメント――は、まさに人々がオフデバイスに送るのを最も躊躇するようなものです。ローカルで実行することで、プライバシー保証を実際の利用シナリオに合わせられます。 [リンク] [コメント] |
ExecuTorchでOpenAIのプライバシーフィルターモデルをオンデバイス実行する方法
Reddit r/LocalLLaMA / 2026/4/27
💬 オピニオンDeveloper Stack & InfrastructureTools & Practical UsageModels & Research
要点
- 開発者が、ExecuTorchを使ってモバイル端末上でOpenAIのプライバシーフィルターモデルを直接動かしたと報告し、セットアップと結果を共有しています。
- オンデバイス実行には約600MBのRAMが必要で、react-native-executorch経由で統合しているとされています。
- このモデルは、メール、文書、チャットログ、貼り付けメモ、文字起こしなど多様な入力に対してPIIや機密性の高い情報を適切に検知できると述べられています。
- クラウドAPIにテキストを送ってセンシティブ判定するよりも、ローカルでのプライバシーフィルタリングのほうが、下書きや社内/書き出し済み文書のような“オフデバイスに出したくない用途”と整合すると主張しています。
- 本投稿は、同様のオンデバイスのプライバシー/センシティブデータ検出ワークフローに取り組む人の実用的な参考として位置づけられています。




