HiL-Bench (Human-in-Loop Benchmark): Do Agents Know When to Ask for Help?
arXiv cs.AI / 4/13/2026
📰 NewsSignals & Early TrendsIdeas & Deep AnalysisModels & Research
Key Points
- 研究は、コーディングエージェントが不完全・曖昧な仕様に直面したときに性能が落ちる主因を「能力不足」ではなく「いつ自律行動し、いつ助けを求めるか」という判断力の欠如だと指摘しています。
- その失敗モードを測るために、進行中の探索でのみ表面化する人手で検証されたブロッカーを含む新ベンチマークHiL-Bench(Human-in-the-Loop Benchmark)を提案し、Ask-F1(質問の精度とブロッカー再現率の調和平均)で選択的エスカレーションを評価します。
- 現行の最先端モデルでは、フルコンテキスト時の性能のごく一部しか「助けを求めるべきか」の判断で回復できず、普遍的な“判断ギャップ”が観測されています。
- 分析により、過信して誤った信念を維持する/ギャップ検知できない、あるいは不確実性は検出しても誤りを繰り返す、または広く曖昧にエスカレーションして自己修正できない、という3つの典型パターンが特定されています。
- Ask-F1に基づく強化学習(shaped reward)で、32Bモデルが助けを求める品質とタスク達成率の両方を改善し、その効果がSWEとテキスト-to-SQLの間で転移することが示されました。
💡 Insights using this article
This article is featured in our daily AI news digest — key takeaways and action items at a glance.
Related Articles

Black Hat Asia
AI Business

Apple is building smart glasses without a display to serve as an AI wearable
THE DECODER

Why Fashion Trend Prediction Isn’t Enough Without Generative AI
Dev.to

Big Tech firms are accelerating AI investments and integration, while regulators and companies focus on safety and responsible adoption.
Dev.to

Chatbot vs Voicebot: The Real Business Decision Nobody Talks About
Dev.to