要旨: 長期ホライズンのエンタープライズエージェントは、損失のあるメモリ、多段の推論、拘束力のある規制上の制約のもとで、高いリスクを伴う意思決定(ローン審査、請求の判定、臨床レビュー、事前承認)を行う。現在の評価では、単一のタスク成功スカラーが用いられており、異なる失敗モードが混同され、エージェントが、その配備環境が要求する基準に整合しているかどうかが隠されている。そこで本研究では、長期ホライズンの意思決定行動は、4つの互いに直交する整合性(アラインメント)軸に分解でき、それぞれ独立に測定可能で、失敗しうると提案する。すなわち、事実の精度(FRP)、推論の整合性(RCS)、コンプライアンス再構成(CRR)、校正された棄権(CAR)である。CRRは新規な規制に基づく軸であり、CARはカバレッジと精度を分離する測定軸である。我々は、この分解を、制御されたベンチマーク(LongHorizon-Bench)上で、ローンの資格審査と保険請求の判定を対象に、決定論的な真値構築を用いて実施する。6つのメモリアーキテクチャを走らせた結果、「構造の集約精度(aggregate accuracy)」では見えないことが分かった。すなわち、検索は事実の精度では崩壊する。スキーマにアンカーされたアーキテクチャは足場(スキャフォールディング)に対するタックスを支払う。事実保持プロンプトのもとでの単純な要約は、FRP、RCS、EDA、CRRにおいて強いベースラインであり、そして6つのアーキテクチャはすべてのケースで完全にコミットしており、当該分野がこれまで標的としてこなかった「意思決定の整合性軸」を明らかにする。さらにこの分解は、我々自身の事前登録済み予測—要約では事実想起が失敗するだろう—をも浮かび上がらせたが、データでは大きな倍率でそれが逆転していた。つまり、軸レベルの反転は、集約精度では隠れてしまう類のものだった。制度的整合性(規制再構成)と意思決定上の整合性(校正された棄権)は、整合性の文献では十分に表現されておらず、意思決定が実験室を離れると、重要な(負荷を担う)概念になる。この枠組みは、2つのステップを通じて、あらゆる規制された意思決定ドメインへ移植できる。すなわち、事実スキーマを構築し、CRRオーディタのプロンプトを校正する。
長期型エンタープライズAIエージェントのための4軸意思決定アラインメント
arXiv cs.AI / 2026/4/22
📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- この論文は、長期型のエンタープライズAIエージェントを「単一のタスク成功スカラー」で評価すると失敗モードが混ざり合い、実運用環境で求められる規制基準への適合状況が見えにくくなると主張しています。
- 4つの独立した評価軸――事実精度(FRP)、推論の一貫性(RCS)、コンプライアンス再構成(CRR)、較正された棄権(CAR)――を提案し、特にCRRを規制に根ざした軸として新規に位置づけています。
- ローン審査と保険の査定を対象にしたLongHorizon-Benchでの実験では、集計精度だけでは見落としが起き、たとえば検索(retrieval)は主に事実精度を崩し、スキーマに基づく手法は足場(scaffolding)のコストを払うことが示されます。
- 事実を保護するプロンプト付きの要約は複数の軸で強いベースラインになり得る一方、評価した6構成すべてが毎回コミット(棄権せず判断)しており、未着手の「意思決定アラインメント」の問題が露呈したと報告しています。
- 本フレームワークは、事実スキーマを作りCRR監査(auditor)用プロンプトを較正することで、規制対象の意思決定ドメインへ汎用できると述べています。




