| llmにgemma-4-E4B-itを使用 私がVroid Studioで作った3Dモデル モデルをアンセンサーせずに、私のプロンプトにうまく追従してくれるgemma 4モデルに驚いています。 [リンク] [コメント] |
あの自分だけのAIワイフアプリを作って、あらゆる言語を教えてもらう
Reddit r/LocalLLaMA / 2026/4/10
💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage
要点
- Reddit投稿者がGemma 4ベースのLLMを使い、「AIワイフ」風のUIで言語学習を行うアプリを自作している。
- 音声はOmniVoiceのTTSを活用し、FastAPIでAPIを実装していると説明している。
- 3DキャラクターはVroid Studioで作成し、画像アップロード、Web検索、音声通話/ビデオ通話(Grok Aniのような体験)に対応している。
- Gemma 4がプロンプトをよく追従し、特定の“アンセンサー”操作なしでも目的の振る舞いができた点に驚いている。
- ローカル/自作のLLM連携により、学習と対話体験を統合する実装例として共有されている。




