Task Ecologies and the Evolution of World-Tracking Representations in Large Language Models
arXiv stat.ML / 4/8/2026
💬 OpinionIdeas & Deep AnalysisModels & Research
Key Points
- 論文は、自己回帰による次トークン学習が「世界(潜在状態)を追跡する表現」をいつ選好するのかを、言語モデルを“進化するモデル生物”として分析する枠組みを提示している。
- 次トークンの交差エントロピーを、不可避の条件付きエントロピーと、Jensen–Shannonの超過項に分解し、この超過項が消えるのは訓練生態系の同値類を表現が保持している場合に限られると述べている。
- この結果から、言語モデルにおける「生態学的な真実性(ecological veridicality)」の定量的定義と、最小複雑度で超過ゼロを達成する解が“訓練同値による商分割(quotient partition)”になることを導く。
- Transformerについては、凍結Dense/凍結MoEでは固定符号化の解析が成り立つ一方、in-context learningは分離集合を広げず、タスクごとの適応は前提を崩すことを示している。
Related Articles
[N] Just found out that Milla Jovovich is a dev, invested in AI, and just open sourced a project
Reddit r/MachineLearning

ALTK‑Evolve: On‑the‑Job Learning for AI Agents
Hugging Face Blog

Context Windows Are Getting Absurd — And That's a Good Thing
Dev.to
Google isn’t an AI-first company despite Gemini being great
Reddit r/artificial

GitHub Weekly: Copilot SDK Goes Public, Cloud Agent Breaks Free
Dev.to