現在、Android上でローカルLLMを直接動かすことを試験中です(主にTermux+MNN Chatのようなアプリ経由です)。
いま調べていること:
スマートフォン上でオフラインエージェント(例:OpenClaw など)のようなものを、完全にローカルで動かす方法はありますか?
主な制約:
- クラウドなし
- API呼び出しなし
- 完全オフライン
- できればCLIやスクリプト(Termux)で制御可能
これまでのところ:
- ローカルモデル(GGUFなど)を動かせる
- 入力/出力をSQLiteでログに残せる
- ただし、実際の「エージェント層」(ツール利用、チェーン、メモリ)がない
問題:
ほとんどのエージェントフレームワークはデスクトップ向けか、Android上でのPython環境構築が大変で依存しているようです。
質問:
- 実際にオンデバイスでやった人はいますか?
- Termuxで動く軽量なエージェントフレームワークはありますか?
- 回避策は?(たとえハックっぽいやり方でも)
特に関心があるのは:
- ツール呼び出し
- 基本的な自動化ループ
- ローカルでのメモリ処理
モバイルは、まだ適切なローカルファーストのエージェント基盤が不足している感じがします。
何か手がかりがあれば助かります。
[link] [comments]



