Towards GUI Agents: Vision-Language Diffusion Models for GUI Grounding

arXiv cs.AI / 3/30/2026

💬 OpinionSignals & Early TrendsIdeas & Deep AnalysisModels & Research

Key Points

  • 離散ディフュージョン型のビジョン・ランゲージモデル(DVLM)が、従来の自己回帰(AR)モデルの代替としてGUIグラウンディングに有効かを検証し、GUI状況に合わせてLLaDA-Vを単発行動とバウンディングボックス予測へ適応した。
  • バウンディングボックス幾何の階層構造を捉えるために線形マスクと決定的マスクを組み合わせたハイブリッド・マスキング戦略を提案し、GUI適応LLaDA-V(線形マスク)に比べてStep Success Rate(SSR)を最大6.1ポイント改善した。
  • Web/デスクトップ/モバイルの4種のデータセット評価では、ハイブリッド・マスキングを用いた拡散モデルが一貫して線形マスク版を上回り、事前学習が限定的でもAR系と競争力のある性能を示した。
  • 論文のアブレーションから、拡散ステップ数・生成長・ブロック長を増やすほど精度は向上するがレイテンシも上がり、精度は一定以上の拡散ステップで頭打ちになることが明らかになった。
  • GUIドメインの多様性を増やす形で学習データを拡張すると、レイテンシが約1.3秒減少し、ベンチマーク平均でグラウンディング精度が約20ポイント向上し、拡散ベースGUIエージェントへの有望な一歩と結論づけている。

Abstract

Autoregressive (AR) vision-language models (VLMs) have long dominated multimodal understanding, reasoning, and graphical user interface (GUI) grounding. Recently, discrete diffusion vision-language models (DVLMs) have shown strong performance in multimodal reasoning, offering bidirectional attention, parallel token generation, and iterative refinement. However, their potential for GUI grounding remains unexplored. In this work, we evaluate whether discrete DVLMs can serve as a viable alternative to AR models for GUI grounding. We adapt LLaDA-V for single-turn action and bounding-box prediction, framing the task as text generation from multimodal input. To better capture the hierarchical structure of bounding-box geometry, we propose a hybrid masking schedule that combines linear and deterministic masking, improving grounding accuracy by up to 6.1 points in Step Success Rate (SSR) over the GUI-adapted LLaDA-V trained with linear masking. Evaluations on four datasets spanning web, desktop, and mobile interfaces show that the adapted diffusion model with hybrid masking consistently outperforms the linear-masked variant and performs competitively with autoregressive counterparts despite limited pretraining. Systematic ablations reveal that increasing diffusion steps, generation length, and block length improves accuracy but also increases latency, with accuracy plateauing beyond a certain number of diffusion steps. Expanding the training data with diverse GUI domains further reduces latency by about 1.3 seconds and improves grounding accuracy by an average of 20 points across benchmarks. These results demonstrate that discrete DVLMs are a promising modeling framework for GUI grounding and represent an important step toward diffusion-based GUI agents.