Deep Networks Favor Simple Data
arXiv cs.AI / 4/2/2026
💬 OpinionIdeas & Deep AnalysisModels & Research
Key Points
- 研究は、深層モデルが「単純(低複雑度)」なOODサンプルに対して「典型的である」ような推定密度をより高く与える現象(OOD anomaly)を、モデルと密度推定器を分離して一般化可能な形で解析する枠組みを提示した。
- 提案する密度推定器として、表現/出力に基づくJacobiansベース推定と、自己回帰的なself-estimatorsの2種類を導入し、iGPT・PixelCNN++・Glow・スコアベース拡散・DINOv2・I-JEPAなど幅広いモデルに同じ分析を適用できるようにした。
- 実験では、推定密度の大小が「低複雑度ほど高密度、 高複雑度ほど低密度」という一貫した順序で現れ、テスト内でもCIFAR-10/SVHNのようなOOD組でも同様で、独立学習したモデル間でも高い再現性が確認された。
- Spearman順位相関により、モデル間での一致だけでなく外部の複雑度指標との一致も示され、さらに最も低密度(最も複雑)なサンプルだけ、あるいは単一サンプルのみで学習してもなお「単純画像を高密度にランク付け」する傾向が残ると報告している。
Related Articles
v5.5.0
Transformers(HuggingFace)Releases
Bonsai (PrismML's 1 bit version of Qwen3 8B 4B 1.7B) was not an aprils fools joke
Reddit r/LocalLLaMA
Big Tech firms are accelerating AI investments and integration, while regulators and companies focus on safety and responsible adoption.
Dev.to

Inference Engines - A visual deep dive into the layers of an LLM
Dev.to
Surprised by how capable Qwen3.5 9B is in agentic flows (CodeMode)
Reddit r/LocalLLaMA