広告

[R] 自己探索(autoresearch)は本当に、従来のハイパーパラメータチューニングより優れているのか?

Reddit r/MachineLearning / 2026/4/3

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • この投稿では、Optunaを用いて自己探索(autoresearch)と従来のハイパーパラメータチューニングを比較し、自己探索のほうがより速く収束し、予算の範囲全体で費用対効果が高いことを見出している。
  • NanoChatでの実験では、Claudeを使ってOptunaの探索空間を定義し、両手法で事前分布が整合するようにしたうえで、どちらも3回ずつ実行した。
  • LLMトークンのコストがGPU計算と同程度に高くなり得る、1ステップあたりのコスト増を考慮しても、自己探索は全体としてのコスト効率の面でOptunaに勝っている。
  • 自己探索で得られた最良の解は、より良く一般化し、その解に追加の学習時間を与えると性能差はさらに拡大する。
  • 提示されている重要な理由は、自己探索が探索を「16パラメータ空間内のノブ(調整つまみ)」から、反復が増えるにつれてより広いコード空間の変更へと拡張していくためだという点である。

Optuna と autoresearch を比較する実験を行いました。
Autoresearch は収束がより速く、コスト効率が高く、さらに汎化性能もより良いのです。

  • 実験は NanoChat で行いました。Claude に Optuna の探索空間を定義させ、両手法の事前分布を揃えています。最適化手法はいずれも 3 回ずつ実行しました。平均すると、autoresearch はサンプル効率が圧倒的に高いです
  • 5分トレーニング設定では、LLM のトークンコストが GPU と同程度になります。しかし、1ステップあたりのコストが 2 倍であるにもかかわらず、AutoResearch はあらゆるコスト予算において依然として上回ります:
  • さらに、autoresearch が見つけた解は Optuna のものよりも良く汎化します。最良の解に対してより多くの学習時間を与えました。絶対的なスコア差は拡大し、統計的有意性も強まります:

  • autoresearch の能力にとって重要な要因は、コード空間で直接探索することです。初期段階では、autoresearch は Optuna の 16 パラメータ探索空間内の調整ノブをチューニングします。しかし反復回数が増えると、コードの変更を探索し始めます

投稿者 /u/Educational_Strain_3
[link] [comments]

広告