Contextual Control without Memory Growth in a Context-Switching Task

arXiv cs.AI / 4/7/2026

💬 OpinionIdeas & Deep AnalysisModels & Research

Key Points

  • 本論文は、文脈依存の逐次意思決定を、(1)文脈を入力で渡す方法や(2)再帰メモリ次元を増やす方法とは別に、共有する再帰潜在状態へ「介入(intervention)」することで実現する第三のアプローチを提案している。
  • 提案アーキテクチャでは、再帰コアが介入前の共通潜在状態を構成し、その後文脈は加算的で文脈インデックスされた演算子を通じて作用するため、再帰次元の増加(メモリ成長)なしで文脈制御を行えるとしている。
  • 部分観測下の文脈切り替え逐次決定タスクで、(a)ラベル支援のベースライン(文脈を直接入力)と、(b)再帰状態を拡張するメモリベースライン、(c)介入モデル(直接文脈入力なし・メモリ成長なし)を比較し、主要ベンチマークで介入モデルが強力な性能を示したと報告している。
  • 文脈依存性の検査として条件付き相互情報量 I(C;O|S) を用い、タスクに関連するフェーズ1の成果において介入モデルが正の条件付き文脈情報を示すことから、固定した潜在状態でも文脈的制御が成立しうることを示唆している。

Abstract

Context-dependent sequential decision making is commonly addressed either by providing context explicitly as an input or by increasing recurrent memory so that contextual information can be represented internally. We study a third alternative: realizing contextual dependence by intervening on a shared recurrent latent state, without enlarging recurrent dimensionality. To this end, we introduce an intervention-based recurrent architecture in which a recurrent core first constructs a shared pre-intervention latent state, and context then acts through an additive, context-indexed operator. We evaluate this idea on a context-switching sequential decision task under partial observability. We compare three model families: a label-assisted baseline with direct context access, a memory baseline with enlarged recurrent state, and the proposed intervention model, which uses no direct context input to the recurrent core and no memory growth. On the main benchmark, the intervention model performs strongly without additional recurrent dimensions. We also evaluate the models using the conditional mutual information (I(C;O | S)) as a theorem-motivated operational probe of contextual dependence at fixed latent state. For task-relevant phase-1 outcomes, the intervention model exhibits positive conditional contextual information. Together, these results suggest that intervention on a shared recurrent state provides a viable alternative to recurrent memory growth for contextual control in this setting.