委任するとLLMが文書を壊す:DELEGATE-52による評価

arXiv cs.CL / 2026/4/20

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本研究は、52の専門領域にまたがる文書編集を伴う長い委任型ワークフローにおいて、LLMがどれだけ信頼できるかを検証するベンチマークDELEGATE-52を提案しています。
  • 19のLLMを用いた大規模実験では、最先端のフロンティアモデルであっても委任中に文書を破損し、長いワークフローの終点で文書内容の平均約25%が損なわれることが示されました。
  • エージェント的なツール使用はDELEGATE-52の性能を改善しないことが分かり、ツール活用だけでは文書の劣化を防げない可能性が示されています。
  • 文書サイズの大きさ、やり取りの長さ、そして紛らわしい(ディストラクタ)ファイルの存在によって劣化の深刻さが増すことが明らかになり、誤りはまばらでも致命的になり得るとされています。
  • 著者らは、現在のLLMは「委任の代理人」として信頼できず、長時間のやり取りの中で静かに(見過ごされて)誤りが蓄積し、文書の正確性を損なうと結論づけています。

Abstract

Large Language Models (LLMs) are poised to disrupt knowledge work, with the emergence of delegated work as a new interaction paradigm (e.g., vibe coding). Delegation requires trust - the expectation that the LLM will faithfully execute the task without introducing errors into documents. We introduce DELEGATE-52 to study the readiness of AI systems in delegated workflows. DELEGATE-52 simulates long delegated workflows that require in-depth document editing across 52 professional domains, such as coding, crystallography, and music notation. Our large-scale experiment with 19 LLMs reveals that current models degrade documents during delegation: even frontier models (Gemini 3.1 Pro, Claude 4.6 Opus, GPT 5.4) corrupt an average of 25% of document content by the end of long workflows, with other models failing more severely. Additional experiments reveal that agentic tool use does not improve performance on DELEGATE-52, and that degradation severity is exacerbated by document size, length of interaction, or presence of distractor files. Our analysis shows that current LLMs are unreliable delegates: they introduce sparse but severe errors that silently corrupt documents, compounding over long interaction.