SeaEvo:戦略空間の進化によるアルゴリズム発見の前進

arXiv cs.CL / 2026/4/28

📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、LLMガイド付き進化探索によるアルゴリズム発見システムが、通常は実行可能プログラムとスカラー的な適応度だけで進捗を追跡し、集団レベルで戦略的な方向性を整理できていないという課題を指摘しています。
  • 「SeaEvo」(戦略空間の進化)では、自然言語で記述した戦略を各候補プログラムに紐づけ、進化の状態として“第一級”の要素として扱う層を提案しています。
  • SeaEvoは、戦略の記述を診断→指示→実装の流れに変えるStrategy Articulation、挙動の補完性に基づいて経験を戦略クラスタに整理して参照するStratified Experience Retrieval、飽和した戦略ファミリーと未探索の戦略ファミリーを要約して次の突然変異を導くStrategic Landscape Navigationの3要素で改良します。
  • 数学的アルゴリズム発見、システム最適化、エージェント・スキャフォールドのベンチマークで評価した結果、ベースラインよりも多くの設定で改善し、特にオープンエンドのシステム最適化では相対で21%の大幅な向上が見られました。
  • 著者らは、戦略を持続的かつ構造化して表現することが、LLMガイド付き進化探索の堅牢性と効率を高め、長期的にアルゴリズム知識を蓄積できる道につながると主張しています。

Abstract

LLMに導かれる進化的探索は、自動化されたアルゴリズム発見の有望なパラダイムとして登場してきましたが、ほとんどのシステムは探索の進行状況を主として実行可能なプログラムとスカラーの適応度によって追跡しています。自然言語による内省が用いられる場合でも、それはしばしば突然変異プロンプトの中で局所的に利用されるだけであったり、あるいは保存されるだけで、戦略的方向性を明示的に人口(集団)レベルで組織化する形にはなっていません。その結果、進化的探索は、同じアイデアの文法的に異なる実装を区別すること、適応度は低いが戦略的に有望な方向性を維持すること、あるいは戦略の一つのファミリー全体が飽和したことを検出することに苦戦しがちです。 本研究では、\modelを提案します。これは、自然言語の戦略記述を一過性のプロンプト文脈から、LLM駆動のプログラム探索における第一級の人口(集団)レベルの進化状態へと引き上げる、モジュール化された戦略空間レイヤです。\modelは、各候補プログラムに明示的な自然言語の戦略記述を付与し、この表現を次の3つの方法で用います。Strategy Articulationは、突然変異を「診断→指示→実装」のプロセスへと変換します。Stratified Experience Retrievalは、アーカイブを戦略クラスタに整理し、行動上の補完性によって着想(インスピレーション)を選択します。そしてStrategic Landscape Navigationは、効果があり、飽和しており、また十分に探索されていない戦略ファミリーを定期的に要約し、将来の突然変異を導きます。数学的アルゴリズム発見、システム最適化、エージェント・スキャフォールド(足場)ベンチマークの各領域において、\modelは、多くの設定で基盤となる進化的バックボーンを改善し、特にオープンエンドなシステム最適化タスクでは大きな改善(相対的改善率21%)を示します。これらの結果は、持続的な戦略表現が、LLMに導かれる進化的探索の頑健性と効率を改善するための実用的なメカニズムを提供し、時間とともにアルゴリズム知識を蓄積する複合AIシステムへ向かう道筋を示唆することを示しています。