意見の不一致を保つ:マルチエージェント政策シミュレーションにおけるアーキテクチャの異種性と整合性検証

arXiv cs.AI / 2026/4/30

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、LLMを用いたマルチエージェントの政策シミュレーションで、価値観の異なる評価者でも同一の選択肢に収束してしまう「人工的コンセンサス」問題を指摘している。
  • 著者らは3フェーズの多者間討論フレームワーク「AI Council」を提案し、2つの政策シナリオで計120回の討論を実施して検証している。
  • アーキテクチャの異種性(価値観ごとに異なる7〜9Bパラメータのモデルを割り当てること)は、均質なベースラインと比べて最初の選好の集中を大幅に低下させた。
  • 整合性検証(フロンティアモデルで、各評価者の推論が割り当てられた価値観に根拠づけられているかを評価)は、「忠実さ–多様性」のトレードオフを生み、シナリオによっては収束をさらに抑える一方で、逆に収束を強める場合があることを示している。
  • さらに著者らは、複数の失敗したDelphi設計の結果を報告し、8Bモデルが反論に対して段階的ではなく二値的に反応すること、そして小規模モデルの討論能力を診断する指標として「trustworthy tension rate」を提案している。

アブストラクト: 大規模言語モデル(LLM)を用いるマルチエージェント熟議システムは政策シミュレーションのためにますます提案されているが、それらは「人工的なコンセンサス」に悩まされている。すなわち、評価者エージェントは、それぞれに割り当てられた価値観の視点にかかわらず同じ選択肢へ収束してしまう。そこで本研究では、3段階の熟議フレームワークである「AI Council」を提示し、2つの政策シナリオにまたがって合計120回の熟議を実施し、2つの介入を検証する。第一に、アーキテクチャの異質性(各価値観の視点に対して異なる7〜9Bパラメータのモデルを割り当てること)は、均質なベースラインと比べて第一候補への集中を大きく低減する(児童福祉: 70.9%から46.1%、p < 0.001、r = 0.58;住宅: 46.0%から22.9%、p < 0.001、r = 0.50)。これは、精度志向のマルチエージェント討論では異質性が収束を低減しないという対照的な結果であり、客観的に正しい答えが存在しない場合に、モデルの多様性が異なる仕組みで働くことを示唆する。第二に、一貫性検証(最前線のモデルを用いて、各評価者の推論が割り当てられた価値観に裏付けられているかどうかを評価する)を行うと、「忠実性」と「多様性」のトレードオフが明らかになる。優位な選択肢が存在するシナリオでは、集中をさらに低減する(46.1%から40.8%、p = 0.004)が、真に競合する選択肢があるシナリオでは、高い一貫性を持つ評価者を増幅して1つの選択肢に群がるようにすることで、集中を増加させる(22.9%から26.6%、p = 0.96)。このトレードオフは、品質ウェイト付けを行うマルチエージェントシステムに一般的に成り立つ可能性がある。さらに、失敗したデルファイ設計を3つ報告し、8Bモデルが反論に対して段階的ではなく二値的な応答を示すことを示し、小規模モデルの熟議能力を診断する指標として「信頼可能な緊張率(trustworthy tension rate)」を提案する。