OpeFlo: Automated UX Evaluation via Simulated Human Web Interaction with GUI Grounding

arXiv cs.AI / 4/14/2026

💬 OpinionSignals & Early TrendsTools & Practical UsageModels & Research

Key Points

  • OpeFlo(OpenFlo)は、ウェブのユーザビリティ評価をユーザ研究や専門家レビューに頼らず、シミュレートしたユーザー行動で自動化するUX評価エージェントとして提案されています。
  • DOM解析中心の従来手法と異なり、GUIグラウンディングにより実ページをエンドツーエンドで操作・観測しつつ、ユーザージャーニーの一貫したトレースを維持できる点が主な特徴です。
  • 評価プロトコルとしてSystem Usability Scale(SUS)、ステップごとのSingle Ease Questions(SEQ)、同時並行のThink Aloudを組み合わせ、標準化された形で測定を行います。
  • 最終的に包括的なUXレポートを生成する構成で、継続的かつスケーラブルなデータ駆動の使いやすさテストを小規模チームやアジャイル開発でも回しやすくすることを狙っています。
  • コードはGitHubで公開されており、Avenir-Webを基盤としたマルチモーダル・グラウンディングのアーキテクチャが示されています。

Abstract

Evaluating web usability typically requires time-consuming user studies and expert reviews, which often limits iteration speed during product development, especially for small teams and agile workflows. We present OpenFlo, a user-experience evaluation agent that simulates user behavior on websites and produces standardized usability. Unlike traditional tools that rely on DOM parsing, OpenFlo grounds actions and observations, enabling it to interact with real web pages end-to-end while maintaining a coherent trace of the user journey. Building on Avenir-Web, our system pairs this robust interaction with simulated user behavior profiles and a structured evaluation protocol that integrates the System Usability Scale (SUS), step-wise Single Ease Questions (SEQ), and concurrent Think Aloud. Subsequently, a comprehensive User Experience (UX) report will be generated. We discuss the architecture of OpenFlo and illustrate how its multimodal grounding improves robustness for web-based interaction and UX evaluation scenarios, paving the way for a new era of continuous, scalable, and data-driven usability testing that empowers every developer to build web interfaces that are usable. Code is available at: https://github.com/Onflow-AI/OpenFlo