Sparse Goodness:選択的計測がフォワード・フォワード学習を変える方法
arXiv cs.AI / 2026/4/16
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、フォワード・フォワード(Forward-Forward: FF)学習アルゴリズムの「goodness関数」の設計上の選択肢を分析し、どの活性を計測するか、またそれらを層ごとにどのように集約するかに焦点を当てている。
- k個の最も活性なニューロンだけを評価する疎な「top-k goodness」指標を提案し、標準の総二乗和(SoS)ベースラインに対してFashion-MNISTで大幅な改善を達成する。
- 「entmax-weighted energy」を導入し、ハードなtop-k選択の代わりとなるソフトな疎性を、alpha-entmax変換によって学習することで、さらなる精度向上を実現する。
- 疎なgoodnessと、ラベル特徴を別経路でフォワードする手法(各層にクラス仮説を、専用の射影を通じて注入する)を組み合わせることで、4×2000アーキテクチャにおいてFashion-MNISTで87.1%の精度に到達する。
- 複数のgoodness関数、アーキテクチャ、疎性設定に対する制御実験により、FFネットワークにとって最も重要な設計因子は適応的な疎性(alpha≈1.5)であることが示唆される。


