Back to Basics: Revisiting ASR in the Age of Voice Agents

arXiv cs.AI / 3/27/2026

📰 NewsIdeas & Deep AnalysisTools & Practical UsageModels & Research

Key Points

  • 論文は、ASRがベンチマークでは高精度でも、実世界の音声エージェントでの性能劣化が既存評価では体系的にカバーされていない点を指摘している。
  • WildASRという4言語対応の診断用ベンチマークを提案し、実話音声データから環境劣化・デモグラフィック変化・言語多様性の3軸でASRロバスト性を分解して測れるようにしている。
  • 7つの代表的ASRシステムを評価した結果、劣化が深刻かつ不均一であり、ロバスト性が言語間や条件間で移転しにくいことを示している。
  • 部分的または劣化した入力で「本当は話されていない内容をもっともらしく出す(ハルシネーション)」現象が起き、安全上の具体的リスク(エージェント挙動への影響)になると警告している。
  • さらに、実運用の判断に役立つ3つの分析ツールを併せて提示し、要因分離型の評価が生産環境での信頼性理解と改善に不可欠だと結論づけている。

Abstract

Automatic speech recognition (ASR) systems have achieved near-human accuracy on curated benchmarks, yet still fail in real-world voice agents under conditions that current evaluations do not systematically cover. Without diagnostic tools that isolate specific failure factors, practitioners cannot anticipate which conditions, in which languages, will cause what degree of degradation. We introduce WildASR, a multilingual (four-language) diagnostic benchmark sourced entirely from real human speech that factorizes ASR robustness along three axes: environmental degradation, demographic shift, and linguistic diversity. Evaluating seven widely used ASR systems, we find severe and uneven performance degradation, and model robustness does not transfer across languages or conditions. Critically, models often hallucinate plausible but unspoken content under partial or degraded inputs, creating concrete safety risks for downstream agent behavior. Our results demonstrate that targeted, factor-isolated evaluation is essential for understanding and improving ASR reliability in production systems. Besides the benchmark itself, we also present three analytical tools that practitioners can use to guide deployment decisions.