How LLMs Follow Instructions: Skillful Coordination, Not a Universal Mechanism
arXiv cs.AI / 4/8/2026
💬 OpinionSignals & Early TrendsIdeas & Deep AnalysisModels & Research
Key Points
- arXivの新規研究は、一般に「instruction tuningが指示追従の汎用メカニズムを与える」と考えられている点を検証し、9種のタスクと3つのinstruction-tunedモデルで診断プロービングを実施しました。
- 訓練横断の汎用プローブはタスク専用のモデルより性能が低く、表現の共有が限定的であることを示しています。
- タスク間の転移は弱く、スキル類似性の塊としてクラスタリングされ、因果的アブレーションでも共通表現ではなく疎で非対称な依存関係が観測されました。
- 複雑性の違いによりレイヤーでタスクが層化し、構造的制約は早期に、意味的タスクは後期に現れ、さらに動的モニタリングによる生成中の整合であって事前計画型の「単一の制約チェック」ではないと結論づけています。
Related Articles

Black Hat Asia
AI Business

Meta's latest model is as open as Zuckerberg's private school
The Register

AI fuels global trade growth as China-US flows shift, McKinsey finds
SCMP Tech

Why multi-agent AI security is broken (and the identity patterns that actually work)
Dev.to
BANKING77-77: New best of 94.61% on the official test set (+0.13pp) over our previous tests 94.48%.
Reddit r/artificial