| 問題: あなたはハイパーパラメータを調整しています。各試行には複数時間かかります。時間や計算資源が尽きる前におそらく15〜20回の試行を予算として持っています。ベイズ最適化は次の構成を最終的な検証スコアだけに基づいて選択します。あなたのモデルがエポック3で過適合していることや、検証損失が20エポックにわたって平坦だった後に発散したことには全く気づきません。 neuroptが異なる点: 各試行後、完全なエポックごとの訓練/検証曲線(必要に応じて他の情報)をLLMに送信し、何が起きているかを推論させ、次の構成を提案します。 さらに、PyTorchモデルの調整可能なパラメータと層を自動検出します。望まない場合は、手動で探索空間を定義する必要はありません。 対応ソフトウェア: PyTorch、XGBoost、scikit-learn 結果(Optuna + ランダム探索(同じ15回の評価予算)との比較) は以下に示します: このアイデアは学術的裏付けがあります(AgentHPO、CPAL 2025)が、清潔で使えるオープンソースのパッケージはありませんでした。これが私の試みです。
[GitHub リンク] | [ドキュメント リンク] 質問があれば喜んでお答えします! 次にベンチマークしてほしいアーキテクチャ/データセットは何ですか(: [リンク] [コメント] |
[P] neuropt: 学習曲線を読み解くLLM主導のハイパーパラメータ最適化
Reddit r/MachineLearning / 2026/3/21
📰 ニュースTools & Practical UsageModels & Research
要点
- [P] neuropt は、各試行の後に完全なエポックごとの学習/検証曲線を LLM に送信して、起きていることを推測し、次の設定を提案する、LLM主導のハイパーパラメータ最適化手法を導入します。
- PyTorch、XGBoost、scikit-learn における調整可能なパラメータと探索空間を自動検出でき、手動で探索空間を指定する手間を削減します。
- 同じ 15 評価予算を用いて Optuna の TPE およびランダムサーチと比較評価され、FashionMNIST(CNN)および Covertype(XGBoost)で結果が示されます。
- 本プロジェクトは学術的支援を受けており(AgentHPO、CPAL 2025)、オープンソースとしてリリースされています。インストールは pip install neuropt[llm]、GitHub およびドキュメントへのリンクがあります。
- 著者は今後のアーキテクチャおよびデータセットのベンチマーク対象についてコミュニティからのフィードバックを求めており、継続的な開発と協力を示しています。