| Xiaomi 12 Pro を専用のローカルAIノードに変えました。技術的なセットアップは次のとおりです: OS最適化:AndroidのUIとバックグラウンドの肥大化を削るために LineageOS をフラッシュし、LLMの計算に約9GBのRAMを確保しました。 ヘッドレス設定:Androidフレームワークは凍結(フリーズ)し、ネットワークは完全にヘッドレス状態を維持するために手動でコンパイルした wpa_supplicant で処理しています。 熱管理:CPU温度を監視するカスタムデーモンがあり、45°CでWi‑Fiスマートプラグを介して外部のアクティブ冷却モジュールを起動します。 バッテリー保護:24/7運用中の劣化を防ぐために、充電は80%で停止する電力供給スクリプトを使用しています。 性能:現在、LAN経由でアクセス可能なAPIとして Ollama を使って Gemma4 を提供しています。 モバイル端末のハードウェアをローカルLLMに流用することに興味がある方がいれば、スクリプトを共有したり、設定の詳細について議論したりするのも喜んで対応します。 [link] [comments] |
Xiaomi 12 Pro(Snapdragon 8 Gen 1 + Ollama/Gemma4)で作る24/7のヘッドレスAIサーバー
Reddit r/LocalLLaMA / 2026/4/14
💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage
要点
- Xiaomi 12 Pro(Snapdragon 8 Gen 1)をOS最適化(LineageOS化など)して、常時稼働できるローカルLLM用のヘッドレスAIノードとして運用する構成が紹介されています。
- UIや不要プロセスを削り、ヘッドレス状態を維持するためにAndroidフレームワークを凍結し、ネットワークは手組みの wpa_supplicant で制御しています。
- 長時間稼働に備え、CPU温度を監視して45°Cで外部冷却をスマートプラグ経由で起動するなど、熱・電力劣化を抑える仕組みが説明されています。
- Ollamaを使ってLAN経由でGemma4をAPI提供しており、スクリプトや設定の共有に関する言及もあります。




