Random Cloud:学習なしで最小のニューラル・アーキテクチャを見つける

arXiv cs.LG / 2026/4/30

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、「Random Cloud」という、学習なしでバックプロパゲーションも使わずに最小のフィードフォワード・ネットワーク構造を見つけるニューラル・アーキテクチャ探索手法を提案する。
  • 後処理のプルーニングで用いられる「学習–削除–再学習」のサイクルとは異なり、Random Cloudはランダム初期化したネットワークを評価しながら段階的に構造を縮小する。
  • 最終的に最良の最小候補だけを学習し、元の大規模モデルを丸ごと学習することを避けることで計算量を削減する。
  • 7つの分類ベンチマークで検証した結果、Random Cloudは6データセットでプルーニングの基準手法と同等以上の性能を示し、Sonarでは87%のパラメータ削減を伴って統計的に有意な改善(+4.9pp、p=0.017)を達成した。
  • また実行時間も多くのケースで改善され、5データセット中4つでマグニチュード/ランダム・プルーニング基準より高速であり、全学習コストの約0.67–0.94倍に抑えられる。