Tian AIに会いましょう:Android向けの完全オフラインAIアシスタント
クラウドAIの問題点
ChatGPT、Claude、Geminiに質問するたびに、その会話はリモートサーバーに送信されます。あなたのデータ、あなたのプライバシーへの懸念、あなたの機密情報——それらはすべて、他人のコンピュータで処理されます。
しかし、もしインターネット接続なしで、データが端末から外に出ることもなく、サブスクリプション料金も不要で、スマホの中だけで本当に賢いAIアシスタントを動かせるとしたらどうでしょうか?
Tian AIに出会ってください。
Tian AIとは?
Tian AIはオープンソースで、完全にオフラインで動作するAIアシスタントです(Android上でTermux経由)。APIにクエリを送るだけの薄いクライアントではありません。これは、以下を備えたフルスタックのローカルAIシステムです:
- ローカルLLM推論 — llama.cppを使って、スマホのCPU上でQwen2.5-1.5B(GGUF量子化)を実行
- 34GBのローカル知識ベース — 100以上の領域にまたがる数百万の概念を、インデックス化して即座に検索可能
- 3層構造の思考エンジン — 高速応答、Chain-of-Thoughtの推論、ディープ解析モード
- 自己進化システム — XPを蓄積し、新しい能力をアンロックし、自身のバージョンをアップグレード
- 自己改変コード — 自分自身のソースコードを解析して改善できる
- 完全なプライバシー — データは一切端末の外へ出ません。永遠に。
アーキテクチャ
┌──────────────────────────────────────────────────┐
│ Web UI (HTML/JS) │
├──────────────────────────────────────────────────┤
│ Flask APIサーバー(run.py) │
├──────────┬──────────┬──────────┬─────────────────┤
│ Thinker │ Memory │ Search │ Evolution │
│ Fast/CoT │ Short/ │ Web + │ XP + レベルシステム │
│ /Deep │ Long │ ローカル │ Tier System │
├──────────┴──────────┴──────────┴─────────────────┤
│ llama.cpp + Qwen2.5-1.5B GGUF(ローカルLLM) │
├──────────────────────────────────────────────────┤
│ 34GB SQLite 知識ベース(Knowledge_base.db) │
└──────────────────────────────────────────────────┘
主な機能
3層思考
- Fastモード:シンプルな質問に対する素早い応答
- Chain-of-Thought:複雑な問題に対する段階的な推論
- Deepモード:振り返りを伴う多視点での分析
34GBの知識ベース
- 100の領域にまたがる69,000以上の概念を事前に用意
- 柔軟な検索のため、各概念につき30の質問パターン
- インデックス化された即時検索(0.04〜0.1秒の応答時間)
100%オフライン&プライベート
- セットアップ後はインターネット接続不要
- すべてのデータは端末内に保持されます
- アカウントなし、追跡なし、監視なし
自己進化
- XPシステムが、より深い会話に対して報酬を与えます
- バージョンのアップグレードで新しい能力が解放されます
- 継続的な改善のために、自身のソースコードを変更できます
Androidネイティブ
- あらゆるAndroid端末でTermux上で動作
- aarch64アーキテクチャ向けに最適化
- ミドルレンジの端末で約7 tok/sの生成速度
使い始める
# F-DroidからTermuxをインストール
# 次に:
pkg update && pkg upgrade
pkg install python git clang cmake
git clone https://github.com/yourusername/tian-ai
cd tian-ai
pip install -r requirements.txt
# モデルをダウンロード(Qwen2.5-1.5B GGUF)
# ~/storage/downloads/qwen-1.5b-q4.gguf に配置
# llama-serverを起動
llama-server -m ~/storage/downloads/qwen-1.5b-q4.gguf --port 8080 -t 4 -c 2048
# Tian AIを実行
python run.py
# もしくは、ブラウザでスタンドアロンのHTMLを開く
テックスタック
| コンポーネント | 技術 |
|---|---|
| LLMエンジン | llama.cpp + Qwen2.5-1.5B GGUF |
| バックエンド | Flask(Python) |
| フロントエンド | 純粋なHTML/CSS/JS(スタンドアロン) |
| 知識ベース | SQLite(34GB、インデックス化) |
| 自己改変 | AST解析 + LLMの提案 |
| 検索 | DuckDuckGo + Google(任意) |
| 支払い | USDT(TRC-20)/ BTC |
比較
| 機能 | Tian AI | ChatGPT | Ollama |
|---|---|---|---|
| 完全オフライン | ✅ | ❌ | ✅ |
| 内蔵知識ベース | ✅ 34GB | ❌ | ❌ |
| 3層思考 | ✅ | ❌ | ❌ |
| 自己進化 | ✅ | ❌ | ❌ |
| 自己改変コード | ✅ | ❌ | ❌ |
| Androidで動作 | ✅ | ❌ | ❌ |
| プライバシー(データが出ていかない) | ✅ | ❌ | 依存 |
| オープンソース | ✅ | ❌ | ✅ |
プロジェクトを応援する
Tian AIは完全に無料でオープンソースです。開発を支援したい場合:
USDT(TRC-20): TNeUMpbwWFcv6v7tYHmkFkE7gC5eWzqbrs
BTC: bc1ph7qnaqkx4pkg4fmucvudlu3ydzgwnfmxy7dkv3nyl48wwa03kmnsvpc2xv
Tian AI — あなたのプライベートAI、完全オフライン。

