24/7 Headless AI Server on Xiaomi 12 Pro (Snapdragon 8 Gen 1 + Ollama/Gemma4)

Reddit r/LocalLLaMA / 4/14/2026

💬 OpinionDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage

Key Points

  • Xiaomi 12 Pro(Snapdragon 8 Gen 1)をOS最適化(LineageOS化など)して、常時稼働できるローカルLLM用のヘッドレスAIノードとして運用する構成が紹介されています。
  • UIや不要プロセスを削り、ヘッドレス状態を維持するためにAndroidフレームワークを凍結し、ネットワークは手組みの wpa_supplicant で制御しています。
  • 長時間稼働に備え、CPU温度を監視して45°Cで外部冷却をスマートプラグ経由で起動するなど、熱・電力劣化を抑える仕組みが説明されています。
  • Ollamaを使ってLAN経由でGemma4をAPI提供しており、スクリプトや設定の共有に関する言及もあります。
24/7 Headless AI Server on Xiaomi 12 Pro (Snapdragon 8 Gen 1 + Ollama/Gemma4)

Turned a Xiaomi 12 Pro into a dedicated local AI node. Here is the technical setup:

​OS Optimization: Flashed LineageOS to strip the Android UI and background bloat, leaving ~9GB of RAM for LLM compute.

​Headless Config: Android framework is frozen; networking is handled via a manually compiled wpa_supplicant to maintain a purely headless state.

​Thermal Management: A custom daemon monitors CPU temps and triggers an external active cooling module via a Wi-Fi smart plug at 45°C.

​Battery Protection: A power-delivery script cuts charging at 80% to prevent degradation during 24/7 operation.

​Performance: Currently serving Gemma4 via Ollama as a LAN-accessible API.

​Happy to share the scripts or discuss the configuration details if anyone is interested in repurposing mobile hardware for local LLMs.

submitted by /u/Aromatic_Ad_7557
[link] [comments]