PRECEPT: 経験、コンテキストエンジニアリングおよび軌道プロービングによる計画的レジリエンス 合成規則学習とパレート誘導型プロンプト進化によるテスト時適応の統一フレームワーク

arXiv cs.AI / 2026/3/11

Ideas & Deep AnalysisModels & Research

要点

  • PRECEPTは大規模言語モデルエージェントのテスト時適応のために設計された統一フレームワークであり、リトリーバル劣化、規則合成の信頼性、および陳腐化または敵対的知識の検出に対処する。
  • 本フレームワークは、決定的な完全一致規則リトリーバル、ベイズ信頼性と規則無効化を備えた競合認識メモリ、ならびにパレート誘導型プロンプト進化ループであるCOMPASSの3つの要素を統合している。
  • PRECEPTは、初回試行性能で+41.1ppの優位性、合成的一般化で+33.3ppの改善、強固な敵対的静的知識処理能力など、著しい成果を提供する。
  • 部分一致のリトリーバル誤りを排除し、意味的階層による合成的スタッキングをサポートすることで、継続的学習とドリフト回復性を強化している。
  • 実験結果は、既存手法と比較して効率性と堅牢性の統計的に有意な向上を示し、ステップ数の削減や敵対的・ドリフト課題からの強力な回復を実証している。

要約: 自然言語として知識を保持するLLMエージェントは、条件数が増加するにつれてリトリーバル性能が急激に劣化し、学習済み規則の合成が安定せず、陳腐化または敵対的知識を検出する明確なメカニズムを持たないことが多い。そこで我々は、(1)構造化された条件キーに対する決定的な完全一致規則リトリーバル、(2)ベイズ的ソース信頼性および閾値に基づく規則無効化を備えた競合認識メモリ、(3)パレート誘導型プロンプト進化の外側ループであるCOMPASSの、3つの密接に結合された構成要素からなるテスト時適応の統一フレームワークPRECEPTを提案する。完全一致によるリトリーバルは決定的パス上での部分一致解釈誤りを排除する(構成上0%、独立モデルTheorem B.6によるN=10時の94.4%に対し)とともに、意味的階層を介した合成的スタッキングを支援する。競合認識メモリは静的–動的の不一致を解消し、ドリフト適応を可能にする。COMPASSは同一のエンドツーエンド実行パイプラインを通じてプロンプトを評価する。

結果(9-10シード): PRECEPTはFull Reflexionを上回り初回試行で+41.1ppの優位性を達成(d>1.9)、合成的一般化で+33.3pp(d=1.55)、2-way物流合成で100% P_1(d=2.64)、連続学習効果で+40~55ppの向上、敵対的静的知識下での強力な最終的堅牢性(敵対的SK活性時100%の物流成績;統合タスクでは部分的回復)、ドリフト回復で+55.0pp(d=0.95, p=0.031)、および61%のステップ減少を示す。主要な比較は統計的有意差があり、多くの場合p<0.001である。

広告