Abstract
修正線形ユニット(ReLU)は、人工ニューラルネットワークにおける基礎的な活性化関数である。近年の文献では、その起源を本論文の2018年(初期)版に誤って帰することがしばしば見られるが、当該版は分類層におけるReLUのみを対象としていた。本論文は、生物学的初期モデルに由来する区分的線形関数の数学的系譜をたどり、Nair & Hinton(2010)による深層学習への決定的な統合に至ることで、引用記録を正式に訂正する。こうした歴史的な訂正に加えて、本論文では、画像分類、テキスト分類、画像再構成という各タスクにおいて、ReLU、双曲線正接(Tanh)、ロジスティック(シグモイド)活性化関数を包括的に実証比較する。統計的頑健性を確保するため、10個の独立したランダム化試行を用いてこれらの関数を評価し、非パラメトリックなKruskal-Wallis H検定により有意性を判定した。実証データは、飽和関数に関する理論的限界を裏づけている。シグモイドは、勾配消失問題のために深い畳み込みビジョンタスクで収束に失敗し、その結果、ランダムな確率と同等の精度となった。対照的に、ReLUとTanhは安定して収束した。ReLUは、画像分類およびテキスト分類タスクにおいて平均精度とF1スコアが最も高かった。一方、Tanhは画像再構成においてピークの信号対雑音比(SNR)が最も高かった。結論として、本研究は活性化関数間の性能差が統計的に有意であることを確認し、深いアーキテクチャでは非飽和型関数が必要であることを再確認するとともに、先行研究への適切な歴史的帰属を回復する。