単純性バイアスに関する圧縮の観点
arXiv cs.AI / 2026/3/30
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、深層ニューラルネットワークにおける「単純性バイアス」(単純な関数を好む傾向)を、教師あり学習をMDL(Minimum Description Length:最小記述長)型の二部構成・損失無し圧縮として捉え直すことで分析する。
- 仮説(モデル)の複雑さに伴うコストと、データの符号化/予測に伴うコストの間の形式的なトレードオフを提案し、このトレードオフがニューラルネットワークの特徴選択をどのように駆動するかを説明する。
- この枠組みは、学習された特徴が、訓練データが増えるにつれてどのように質的に遷移するかを予測し、データ符号化の節約が追加されたモデル複雑さを上回る場合に限って、単純な紛らわしいショートカットからより複雑な「実在の」特徴へと移行していくことを示す。
- 著者らは、データ量に関する異なる領域を特定する。すなわち、より多くのデータは自明なショートカットを排除することで頑健性を高めうる一方、別の領域ではデータを制限することが、複雑さに基づく正則化として働き、信頼できない手がかりを避けることができる。
- 著者らは、半合成ベンチマークにより理論を検証し、ニューラル特徴選択が最適な二部構成コンプレッサの解の軌跡に従うことを見出している。



