Pixelis: Reasoning in Pixels, from Seeing to Acting

arXiv cs.CV / 3/27/2026

📰 NewsSignals & Early TrendsIdeas & Deep AnalysisModels & Research

Key Points

  • Pixelisは、従来の画像・動画と言語の静的観測にとどまらず、画像上でズーム/クロップ、セグメント、トラッキング、OCR、時間的ローカライズ等の実行可能な「ピクセル操作」を行い、行動から学習するビジョン・エージェントを提案している。
  • 学習は3段階で構成され、CoT-Actionトレースからピクセルツール文法を模倣学習する段階、好奇心(予測誤差)と隣接ステップの整合性を組み合わせ効率も制約しつつ最適化する段階、そしてラベルなし適応として近傍検索と軌道(trajectory)単位の投票でテスト時RLを行う段階が用意されている。
  • 実験では6つの公開ベンチマークで同一8Bベースライン比の平均相対改善+4.08%(VSI-Benchで最大+6.03%)を示し、短く監査可能なツール連鎖を生成しつつテスト時学習中のKL制約も維持したとされる。
  • 「ピクセル空間で行動する」ことにより、抽象トークン上の推論ではなく物理的に根付いた視覚推論と、外部フィードバックなしでのラベルなし適応を両立するアプローチとして位置づけられている。

Abstract

Most vision-language systems are static observers: they describe pixels, do not act, and cannot safely improve under shift. This passivity limits generalizable, physically grounded visual intelligence. Learning through action, not static description, is essential beyond curated data. We present Pixelis, a pixel-space agent that operates directly on images and videos via a compact set of executable operations (zoom/crop, segment, track, OCR, temporal localization) and learns from its consequences. Pixelis trains in three phases: (1) Supervised Fine-Tuning learns a pixel-tool grammar from Chain-of-Thought-Action traces with a masked imitation loss that upweights operation/argument tokens and auxiliary heads to stabilize pixel-grounded arguments; (2) Curiosity-Coherence Reward Fine-Tuning optimizes a dual-drive objective marrying prediction-error curiosity with adjacent-step coherence and a mild efficiency prior under a KL anchor, yielding short, valid, structured toolchains; (3) Pixel Test-Time RL performs label-free adaptation by retrieving neighbors, voting over complete trajectories rather than answers, and updating toward short, high-fidelity exemplars while constraining drift with a KL-to-EMA safety control. Across six public image and video benchmarks, Pixelis yields consistent improvements: the average relative gain is +4.08% over the same 8B baseline (peaking at +6.03% on VSI-Bench), computed as (ours-baseline)/baseline, while producing shorter, auditable toolchains and maintaining in-corridor KL during test-time learning. Acting within pixels, rather than abstract tokens, grounds multimodal perception in the physical world, linking visual reasoning with actionable outcomes, and enables embodied adaptation without external feedback.