| 皆さん、素晴らしいお知らせです。llama.cpp(llama-server)が、Gemma-4 の E2A および E4A モデルで STT をサポートするようになりました。 [link] [comments] |
Gemma-4で音声処理がllama-serverに導入
Reddit r/LocalLLaMA / 2026/4/13
📰 ニュースDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical Usage
要点
- llama.cppのllama-serverに、Gemma-4のE2AおよびE4Aモデルを用いた音声認識(STT)による音声処理サポートが追加されました。
- これにより、ローカルのLLMサーバーの機能がテキスト生成にとどまらず、音声入力からの文字起こし(転写)まで含むように拡張されます。
- このアップデートはLocalLLaMAコミュニティで報告されており、オンデバイスまたはセルフホスト運用に向けた新しい能力が強調されています。
- llama-serverを統合するユーザーは、同一のサーバースタック内で、Gemma-4を活用したSTTワークフローに音声をルーティングできるようになりました。




