超球面フォワード・フォワード(HFF)とプロトタイプ表現

arXiv cs.AI / 2026/5/4

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、Forward-Forwardアルゴリズムの推論時ボトルネック(クラスごとに別の前向き計算が必要)を解消する、Hyperspherical Forward-Forward(HFF)を提案しています。
  • HFFは、各層の局所的な目的関数を「二値の良さ判定」から「超球面の特徴空間上での多クラス分類」へと作り替えます。
  • クラスごとの単位ノルム・プロトタイプを学習し、それを幾何学的アンカーおよび暗黙のネガティブとして機能させることで、重み更新と推論を1回のフォワードパスで可能にしています。
  • 著者らは、HFFが元のForward-Forwardより40倍以上高速でありながら、標準的な画像分類ベンチマークで精度も向上すると報告しています。
  • さらに、貪欲な局所学習においてImageNet-1kでトップ1精度25%以上、転移学習でトップ1精度65.96%を達成し、バックプロパゲーションとの差を縮めています。

Abstract

フォワード・フォワード(FF)アルゴリズムは、バックプロパゲーションに対する魅力的で生物に着想を得た代替手法を提示している。しかし、学習は効率的である一方で、推論プロセスが計算的に極めて負荷が高く、評価する各クラスごとに別個のフォワードパスが必要となる。そこで本研究では、この重要なボトルネックを解消する新しい手法であるハイパースフェリカル・フォワード・フォワード(HFF)を提案する。我々の中核となる革新は、各層の局所目的を二値の適合度(goodness-of-fit)タスクから、ハイパースフェリカルな特徴空間上での直接的な多クラス分類問題へと作り直すことである。これを、幾何学的アンカーおよび暗黙のネガティブとして働くクラス固有の、単位ノルム(unit-norm)プロトタイプ群を学習することで実現する。このアーキテクチャ上の工夫により、局所学習の利点を維持しつつ、重み更新と推論を単一のフォワードパスで可能にする。これにより、元のFFアルゴリズムよりも>40倍高速となる。本手法は実装が簡単で、現代的な畳み込みアーキテクチャへも効果的にスケールし、標準的な画像分類ベンチマークで優れた精度を達成してバックプロパゲーションとの差を埋める。とりわけ注目すべき点として、我々はImageNet-1kにおいてトップ1精度が25%以上を報告する、最初期の貪欲なローカル学習手法の一つであり、さらに転移学習により65.96%を達成している。