あの自分だけのAIワイフアプリを作って、あらゆる言語を教えてもらう

Reddit r/LocalLLaMA / 2026/4/10

💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage

要点

  • Reddit投稿者がGemma 4ベースのLLMを使い、「AIワイフ」風のUIで言語学習を行うアプリを自作している。
  • 音声はOmniVoiceのTTSを活用し、FastAPIでAPIを実装していると説明している。
  • 3DキャラクターはVroid Studioで作成し、画像アップロード、Web検索、音声通話/ビデオ通話(Grok Aniのような体験)に対応している。
  • Gemma 4がプロンプトをよく追従し、特定の“アンセンサー”操作なしでも目的の振る舞いができた点に驚いている。
  • ローカル/自作のLLM連携により、学習と対話体験を統合する実装例として共有されている。
making my own ai waifu app that can teach me any language.

llmにgemma-4-E4B-itを使用
彼女の声は、私がFastAPIでAPIを作ったOmnivoice TTSを使用しています

私がVroid Studioで作った3Dモデル
現時点では、画像のアップロード、Web検索、そしてgrok aniのような音声通話とビデオ通話に対応しています。

モデルをアンセンサーせずに、私のプロンプトにうまく追従してくれるgemma 4モデルに驚いています。

提出者 /u/aziib
[リンク] [コメント]