視覚表現学習のための多周波ローカル・プラスティシティ
arXiv cs.CV / 2026/4/14
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、「Multi-Frequency Local Plasticity(多周波ローカル・プラスティシティ)」という、固定された多周波ガボール分解と局所(ヘッブ/オジャ)プラスティシティ則を用いることで、大部分をエンドツーエンドのバックプロパゲーションなしで実現するモジュール型の視覚表現学習フレームワークを提案する。
- within-stream の競合学習(反ヘッブ的なデコリレーションを含む)に加え、現代のホップフィールド検索に着想を得た連想記憶モジュール、さらに局所的な予測/再構成シグナルに駆動される反復的なトップダウン変調を組み合わせる。
- 学習(勾配降下)で訓練されるのはパラメータの少数、具体的には最終の線形リードアウトとトップダウン投影行列のみであり、ほとんどの表現層は局所的な学習更新に依存する。
- CIFAR-10において、完全なモデルは線形プローブで80.1% ± 0.3%のトップ1精度を達成し、ヘッブのみのベースライン(71.0%)を上回る一方、同一の固定ガボール基底上での勾配学習による参照モデル(83.4%)には及ばない。
- 因子分析によれば、各構成要素(多周波ストリーム、連想記憶、トップダウンフィードバック)は概ね加法的に寄与している。さらに、ストリームとトップダウン変調の間には統計的に有意な相互作用(p=0.02)が観測されるが、実験はCIFAR-10/100に限られている。




