Umwelt Engineering: Designing the Cognitive Worlds of Linguistic Agents

arXiv cs.CL / 3/31/2026

💬 OpinionSignals & Early TrendsIdeas & Deep AnalysisModels & Research

Key Points

  • 論文は、エージェント設計の「第3層」として、プロンプトやコンテキストに先行する“Umwelt engineering”(言語的な認知環境の意図的設計)を提案しています。
  • 実験1では、語彙制約(No-Have: possessive “to have”の除去、E-Prime: “to be”の除去)により、言語モデルの推論が認知的に変化し得ることを示し、No-Haveは倫理推論・分類・エピステミック校正を有意に改善しました。
  • 一方でE-Primeはモデル依存の大きな影響を示し、モデル間の相関が強く負に傾くなど挙動が大きく変わる可能性が示唆されています。
  • 実験2では、言語的制約を持つ複数エージェントをデバッグ問題に適用したところ、個別では勝てない場合があっても、制約エージェントの3体アンサンブルでグラウンドトゥルース網羅率が100%に到達し、成功には特定の“反実仮想エージェント”が含まれることが示されました。
  • 主要な限界として、制約プロンプトの精緻さ(プロンプト elaborateness)を一致させた能動的な対照条件がない点が挙げられています。

Abstract

I propose Umwelt engineering -- the deliberate design of the linguistic cognitive environment -- as a third layer in the agent design stack, upstream of both prompt and context engineering. Two experiments test the thesis that altering the medium of reasoning alters cognition itself. In Experiment 1, three language models reason under two vocabulary constraints -- No-Have (eliminating possessive "to have") and E-Prime (eliminating "to be") -- across seven tasks (N=4,470 trials). No-Have improves ethical reasoning by 19.1 pp (p < 0.001), classification by 6.5 pp (p < 0.001), and epistemic calibration by 7.4 pp, while achieving 92.8% constraint compliance. E-Prime shows dramatic but model-dependent effects: cross-model correlations reach r = -0.75. In Experiment 2, 16 linguistically constrained agents tackle 17 debugging problems. No constrained agent outperforms the control individually, yet a 3-agent ensemble achieves 100% ground-truth coverage versus 88.2% for the control. A permutation test confirms only 8% of random 3-agent subsets achieve full coverage, and every successful subset contains the counterfactual agent. Two mechanisms emerge: cognitive restructuring and cognitive diversification. The primary limitation is the absence of an active control matching constraint prompt elaborateness.