Rectified Linear Units(ReLU)を用いた深層学習

arXiv stat.ML / 2026/4/15

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 論文は、区分的線形な活性化関数の数学的な系譜をたどることで引用記録を訂正し、ReLUの深層学習への決定的な統合は2018年版(分類層でのみReLUを調べたもの)ではなく、Nair & Hinton(2010)に帰することを改めて確認している。
  • 画像分類・テキスト分類・画像再構成という各タスクにおいて、ReLU、Tanh、Sigmoidを10個の独立したランダム化試行とKruskal–Wallisの統計検定を用いて、堅牢な経験的比較を提示する。
  • 結果は、飽和型活性化関数の理論的限界を支持しており、シグモイドは勾配消失問題のため深い畳み込みの視覚設定では収束せず、確率的レベル(chance-level)の精度にとどまる。
  • ReLUとTanhはいずれも安定して収束し、分類タスクではReLUが平均精度およびF1スコアで最も高い一方、再構成ではTanhが最高のピーク信号対雑音比を示す。
  • 総じて本研究は、深いネットワークにおける活性化関数間の性能差が統計的に有意であることを結論づけ、深いアーキテクチャでは非飽和型活性化関数が実務上必要であることを再確認している。

Abstract

修正線形ユニット(ReLU)は、人工ニューラルネットワークにおける基礎的な活性化関数である。近年の文献では、その起源を本論文の2018年(初期)版に誤って帰することがしばしば見られるが、当該版は分類層におけるReLUのみを対象としていた。本論文は、生物学的初期モデルに由来する区分的線形関数の数学的系譜をたどり、Nair & Hinton(2010)による深層学習への決定的な統合に至ることで、引用記録を正式に訂正する。こうした歴史的な訂正に加えて、本論文では、画像分類、テキスト分類、画像再構成という各タスクにおいて、ReLU、双曲線正接(Tanh)、ロジスティック(シグモイド)活性化関数を包括的に実証比較する。統計的頑健性を確保するため、10個の独立したランダム化試行を用いてこれらの関数を評価し、非パラメトリックなKruskal-Wallis H検定により有意性を判定した。実証データは、飽和関数に関する理論的限界を裏づけている。シグモイドは、勾配消失問題のために深い畳み込みビジョンタスクで収束に失敗し、その結果、ランダムな確率と同等の精度となった。対照的に、ReLUとTanhは安定して収束した。ReLUは、画像分類およびテキスト分類タスクにおいて平均精度とF1スコアが最も高かった。一方、Tanhは画像再構成においてピークの信号対雑音比(SNR)が最も高かった。結論として、本研究は活性化関数間の性能差が統計的に有意であることを確認し、深いアーキテクチャでは非飽和型関数が必要であることを再確認するとともに、先行研究への適切な歴史的帰属を回復する。