AndroidでローカルLLMを使ってオフラインエージェント(OpenClawや類似のもの)を動かすことに成功した人はいますか?

Reddit r/LocalLLaMA / 2026/3/27

💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsIdeas & Deep AnalysisTools & Practical Usage

要点

  • Redditのユーザーが、TermuxやMNN Chatのようなアプリを通じてAndroid上でローカルLLMを試しており、OpenClawのようなオフラインの「エージェント層」を、クラウド/APIに一切アクセスせず完全ローカルで実現したいと考えています。
  • すでにGGUFのローカルモデルは動かせるほか、SQLiteに入力/出力を記録していますが、ツールの利用、連鎖(チェイニング)、永続/ローカルメモリといった本格的なエージェント機能が不足しています。
  • 主な課題として、ほとんどのエージェントフレームワークがデスクトップ環境やPython環境に依存しており、それをモバイルのAndroidで行うのが難しい点を挙げています。
  • コミュニティに対して、デバイス上でオフラインエージェントを実際に動かした人がいるか、Termuxで動く軽量なエージェントフレームワークは何か、そして特にツール呼び出しや自動化ループに関する“ハッキーな”回避策(workaround)がないかを尋ねています。

現在、Android上でローカルLLMを直接動かすことを試験中です(主にTermux+MNN Chatのようなアプリ経由です)。

いま調べていること:

スマートフォン上でオフラインエージェント(例:OpenClaw など)のようなものを、完全にローカルで動かす方法はありますか?

主な制約:

- クラウドなし

- API呼び出しなし

- 完全オフライン

- できればCLIやスクリプト(Termux)で制御可能

これまでのところ:

- ローカルモデル(GGUFなど)を動かせる

- 入力/出力をSQLiteでログに残せる

- ただし、実際の「エージェント層」(ツール利用、チェーン、メモリ)がない

問題:

ほとんどのエージェントフレームワークはデスクトップ向けか、Android上でのPython環境構築が大変で依存しているようです。

質問:

- 実際にオンデバイスでやった人はいますか?

- Termuxで動く軽量なエージェントフレームワークはありますか?

- 回避策は?(たとえハックっぽいやり方でも)

特に関心があるのは:

- ツール呼び出し

- 基本的な自動化ループ

- ローカルでのメモリ処理

モバイルは、まだ適切なローカルファーストのエージェント基盤が不足している感じがします。

何か手がかりがあれば助かります。

submitted by /u/NeoLogic_Dev
[link] [comments]