要約: 自然言語として知識を保持するLLMエージェントは、条件数が増加するにつれてリトリーバル性能が急激に劣化し、学習済み規則の合成が安定せず、陳腐化または敵対的知識を検出する明確なメカニズムを持たないことが多い。そこで我々は、(1)構造化された条件キーに対する決定的な完全一致規則リトリーバル、(2)ベイズ的ソース信頼性および閾値に基づく規則無効化を備えた競合認識メモリ、(3)パレート誘導型プロンプト進化の外側ループであるCOMPASSの、3つの密接に結合された構成要素からなるテスト時適応の統一フレームワークPRECEPTを提案する。完全一致によるリトリーバルは決定的パス上での部分一致解釈誤りを排除する(構成上0%、独立モデルTheorem B.6によるN=10時の94.4%に対し)とともに、意味的階層を介した合成的スタッキングを支援する。競合認識メモリは静的–動的の不一致を解消し、ドリフト適応を可能にする。COMPASSは同一のエンドツーエンド実行パイプラインを通じてプロンプトを評価する。
結果(9-10シード): PRECEPTはFull Reflexionを上回り初回試行で+41.1ppの優位性を達成(d>1.9)、合成的一般化で+33.3pp(d=1.55)、2-way物流合成で100% P_1(d=2.64)、連続学習効果で+40~55ppの向上、敵対的静的知識下での強力な最終的堅牢性(敵対的SK活性時100%の物流成績;統合タスクでは部分的回復)、ドリフト回復で+55.0pp(d=0.95, p=0.031)、および61%のステップ減少を示す。主要な比較は統計的有意差があり、多くの場合p<0.001である。




