iPhoneで完全ローカルの音声AI

Reddit r/LocalLLaMA / 2026/3/26

💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage

要点

  • 開発者が、サーバーコストをなくし、音声学習サービスを無料かつ持続可能にするために、iPhone 15上で完全ローカルの音声AI体験を構築したことを紹介しています。
  • 設定ではFluidAudioを使い、音声認識(STT)とテキスト読み上げ(TTS)をiPhoneのNeural Engineにオフロードすることで、llama.cppがGPU上でより効果的に動作できるようにし、競合を避けられるようにしています。
  • 手元端末での実装は想定以上に良好に動作したと報告しており、事前のステップとしてホームサーバー方式を用いたことにも触れています。
  • GitHubリポジトリ(volocal)が共有されており、他の人が同様の手法を再現できるようになっています。
Fully local voice AI on iPhone

私は、英語を話すことを学ぶのを手伝うために、ホームサーバー上で完全に無料の音声AIを自宅ホストしています。月間アクティブユーザーは数十〜数百人で、収益性を保ちつつ無料のまま維持する方法について考えてきました。

運用コストを最も大幅に削減する究極の方法は、サーバーコストを一切なくすために、すべてを端末上で動かすことです。そこで、音声AIの体験をiPhone 15上で完全にローカル実行できるように再現しようと決め、結果は予想以上にうまくいっています。

このアプリが可能になる重要なポイントの1つは、FluidAudio を使ってSTTとTTSをNeural Engineにオフロードすることで、llama.cppが競合なしにGPUを最大限に活用できることです。

Repo: https://github.com/fikrikarim/volocal

submitted by /u/ffinzy
[link] [comments]