要旨: 大規模言語モデル(LLM)に基づくパーソナエージェントは、さまざまな領域において人間の参加者の代替として、スケーラブルな代理(プロキシ)を提供するものとして急速に採用されつつあります。しかし、相互作用の全過程にわたって、パーソナエージェントの応答が矛盾や事実の不正確さから自由であり続けるかどうかを検証するための体系的な方法は存在しません。尋問手法の分野からの原理が、そのための見取り図を与えます。どれほど精巧に作り込まれた架空のアイデンティティであっても、体系的な尋問を行えばその矛盾は必ず露呈する、というものです。本研究ではこの原理を適用し、論理的に連鎖したマルチターンの質問によってパーソナエージェントを検証する評価フレームワークPIConを提案します。PIConは一貫性を3つの中核的な次元に沿って評価します。すなわち、内部一貫性(自己矛盾のなさ)、外部一貫性(現実世界の事実との整合)、および再テスト一貫性(反復に対する安定性)です。7つのグループのパーソナエージェントと63名の実在の人間参加者を並行して評価したところ、以前に「高い一貫性」を示すと報告されていたシステムでさえ、3つの次元すべてにおいて人間のベースラインを満たせないことが分かりました。連鎖した尋問のもとでは、矛盾や、回避的な応答が明らかになりました。本研究は、パーソナエージェントを人間参加者の代替として信頼する前に評価するための、概念的な基盤と実用的な手法の両方を提供します。ソースコードとインタラクティブなデモは以下です: https://kaist-edlab.github.io/picon/
PICon:ペルソナエージェントの一貫性を評価するためのマルチターン・インタロゲーション(尋問)フレームワーク
arXiv cs.CL / 2026/3/27
💬 オピニオンIdeas & Deep AnalysisTools & Practical UsageModels & Research
要点
- 本論文は、LLMベースのペルソナエージェントが長時間のやり取りにおいて一貫性を保ち、矛盾のない振る舞いができているかを確認するための、マルチターンの尋問による評価フレームワークであるPIConを提案する。
- PIConは、ペルソナエージェントを3つの側面から評価する:内部一貫性、実世界の事実に対する外部一貫性、そして再テスト一貫性(繰り返しの質問に対する安定性を測る)。
- 7つのグループのペルソナエージェントと63人の人間参加者を用いた実験により、過去に「非常に一貫している」と主張されたシステムであっても、3つの一貫性の側面すべてにおいて人間のベースラインを下回ることが示される。
- 著者らは、論理的につながった一連の質問が矛盾や、単純な評価では見落とされ得る回避的な応答を引き起こし得ることを報告している。
- 本研究にはソースコードとインタラクティブなデモが含まれており、人間参加者の代替としてペルソナエージェントを用いる前に、その評価を実践的に行うための方法論としてPIConを位置付けている。
広告
![[Boost]](/_next/image?url=https%3A%2F%2Fmedia2.dev.to%2Fdynamic%2Fimage%2Fwidth%3D800%252Cheight%3D%252Cfit%3Dscale-down%252Cgravity%3Dauto%252Cformat%3Dauto%2Fhttps%253A%252F%252Fdev-to-uploads.s3.amazonaws.com%252Fuploads%252Fuser%252Fprofile_image%252F3618325%252F470cf6d0-e54c-4ddf-8d83-e3db9f829f2b.jpg&w=3840&q=75)
