| Turned a Xiaomi 12 Pro into a dedicated local AI node. Here is the technical setup: OS Optimization: Flashed LineageOS to strip the Android UI and background bloat, leaving ~9GB of RAM for LLM compute. Headless Config: Android framework is frozen; networking is handled via a manually compiled wpa_supplicant to maintain a purely headless state. Thermal Management: A custom daemon monitors CPU temps and triggers an external active cooling module via a Wi-Fi smart plug at 45°C. Battery Protection: A power-delivery script cuts charging at 80% to prevent degradation during 24/7 operation. Performance: Currently serving Gemma4 via Ollama as a LAN-accessible API. Happy to share the scripts or discuss the configuration details if anyone is interested in repurposing mobile hardware for local LLMs. [link] [comments] |
24/7 Headless AI Server on Xiaomi 12 Pro (Snapdragon 8 Gen 1 + Ollama/Gemma4)
Reddit r/LocalLLaMA / 4/14/2026
💬 OpinionDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage
Key Points
- Xiaomi 12 Pro(Snapdragon 8 Gen 1)をOS最適化(LineageOS化など)して、常時稼働できるローカルLLM用のヘッドレスAIノードとして運用する構成が紹介されています。
- UIや不要プロセスを削り、ヘッドレス状態を維持するためにAndroidフレームワークを凍結し、ネットワークは手組みの wpa_supplicant で制御しています。
- 長時間稼働に備え、CPU温度を監視して45°Cで外部冷却をスマートプラグ経由で起動するなど、熱・電力劣化を抑える仕組みが説明されています。
- Ollamaを使ってLAN経由でGemma4をAPI提供しており、スクリプトや設定の共有に関する言及もあります。


