CoE:エージェント型マルチLLMシステムにおける不確実性定量化のための協調エントロピー(Collaborative Entropy)
arXiv cs.AI / 2026/3/31
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文では、マルチLLMシステムにおける現行の不確実性推定の限界を指摘する。具体的には、多くの手法は各モデル内の不確実性を測定するものの、コラボレーションにおけるモデル間の意味的な不一致を捉えられていない。
- 協調エントロピー(CoE)を導入する。これは、共有する意味クラスタ空間上で定義された統一的な情報理論的指標であり、モデル内の意味エントロピーと、アンサンブル平均に対するモデル間のダイバージェンスを組み合わせる。
- CoEは、加重アンサンブルの予測子ではなく、システム全体の不確実性指標として位置付けられており、複数のLLM間における協調的な確信と不一致を定量化することを目的とする。
- 著者らは、CoEの主要な理論的性質(完全な意味的コンセンサスの下で不確実性がゼロになり、非負であることなど)を解析し、モデルごとの崩壊がデルタ分布に至るといったエッジケースでの挙動も検討する。
- LLaMA-3.1-8B-Instruct、Qwen-2.5-7B-Instruct、Mistral-7B-Instructを用いて、TriviaQAおよびSQuADで実験を行う。結果として、CoEは標準的なエントロピー/ダイバージェンス基準よりも不確実性推定を改善し、より多くの異種モデルを追加するほど改善幅が大きくなることが示される。また、学習を行わない(training-free)CoE誘導の協調(コーディネーション)ヒューリスティックの有効性も示される。



