タスク・ケイパビリティの共進化による新規LLM専門家の発見

arXiv cs.AI / 2026/4/17

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • この論文は、LLMとタスクをオープンエンドに共進化させることで、単一の継続実行の中でますます新しいスキルを持つモデルを発見する枠組みAC/DCを提案しています。
  • AC/DCは両方を進化させ、LLM集団はモデルマージによって更新し、タスクの多様性は合成データで自然言語タスクを生成することで拡張します。
  • 実験では、ベンチマーク最適化を明示的に行わなくても、得られたLLMアーカイブが下流ベンチマークでより大きなモデルを上回る「専門性のカバレッジ」を達成し、かつGPUメモリ使用量を抑えられると報告されています。
  • 著者らは、AC/DCが時間とともにカバレッジを向上させ、マルチエージェントのbest-of-N選択でも性能を改善すると主張し、共進化をLLM開発の新しいパラダイムとして位置づけています。
  • 本研究は、既存のベースモデルを踏み台としてより高能力なモデルへ進むことで、モデル能力の多様性を継続的に高める改善を加速できる手段として共進化を提示しています。

Abstract

フロンティア・モデルの開発者は、モデルを継続的に学習して、創発的で多様な能力を備えさせることを目指している。能力を拡張するには、現在の事前学習・事後学習のパラダイムでは、静的なデータセットや報酬関数を用意して、そのたびに学習実行を手動で開始する必要がある。この制約に対処するため、我々の研究は、開放性(モデルとタスクの共進化によって)によって、単一の実行の中でますます新規な技能を備えたモデルを発見できるという洞察を追究する。我々は、この共進化を大規模言語モデル(LLM)発見へ拡張する、新しいモデル開発フレームワークを導入する。それが、オープンエンド extit{多様な能力を伴うアセスメントの共進化}(AC/DC)である。AC/DCは、モデルマージによってLLMを、合成データ生成によって自然言語タスクを、それぞれ進化させる。AC/DCは、大きなLLMを上回る能力を備えつつ、GPUメモリ使用量が少ない、成長していくLLMのアーカイブを発見する。特に、我々のLLM集団は、下流ベンチマーク上で、他のキュレーション済みモデルやベースラインよりも専門性に関する extit{広いカバレッジ}を達成し、 extit{いかなる}明示的なベンチマーク最適化も行うことなく実現している。さらにAC/DCは、時間とともにカバレッジを改善し、タスクとモデルに対して継続的に新しい工夫を行い、マルチエージェントのbest-of-N選択における性能を向上させる。我々の知見は、共進化を、基盤LLMからより広範な能力の集合を発見するための手段として用いる可能性を示している。全体としてAC/DCは、LLM開発における、根本的に新しいパラダイムに一歩近づくものである。そこでは、既存モデルを踏み台として活用し、モデル能力の多様性への継続的な改善を、より強力なモデルへと加速させることができる。