120,000人超のペルソナで検証:LLMエージェントはSNS反応を予測できるが、テキスト分類器には及ばない(1511人の人間データを用いたベンチマークシミュレーション精度)

arXiv cs.CL / 2026/4/23

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本研究は、1511人のセルビア参加者と27のLLMを用い、120,000人超のペルソナとコンテンツの組み合わせに対して、LLMベースの自律エージェントが個々人のSNS反応(いいね/嫌い/コメント/共有/反応なし)をどれだけ正確に予測できるかをベンチマークします。
  • 研究1ではエージェントの総合精度は70.7%で、性能のばらつきは使用するLLMによって最大13ポイントに及びます。
  • 研究2では二値の好意/不好意(like/dislike)評価を行い、MCC=0.29を得ており、偶然を超える予測の手がかりが確認されますが、TF-IDF表現の従来型テキスト分類器はMCC=0.36で上回ります。
  • 予測精度の伸びは「エージェント性」に固有な推論によるというより、意味へのアクセスによって説明できる可能性が示され、一方でゼロショットのペルソナ・プロンプト型エージェントは、SNS上での行動の異なるAIスウォームによる操作リスクも高めます。
  • 著者らは、これらのエージェントが分極化ダイナミクスをシミュレーションし政策に役立てる可能性を述べる一方、調査が単一国サンプルに限られるため、多言語テストや微調整を含む今後の研究が必要だとしています。

概要: ソーシャルメディア・プラットフォームは、何十億もの人々が意見を形成し、公的言説と関わる方法を仲介している。自律的なAIエージェントがこれらの場にますます参加するようになる中で、それらの行動の忠実性を理解することは、プラットフォームのガバナンスと民主主義のレジリエンスにとって重要になる。先行研究は、LLMを活用したエージェントが集計された世論調査の回答を再現できることを示しているが、エージェントが特定の個人の、特定のコンテンツに対する反応を予測できるかどうかを検証した研究はほとんどない。本研究では、1,511人のセルビア人参加者と27の大規模言語モデルから導出した、120,000超のユニークなエージェント・パーソナ組み合わせにわたって、人間のソーシャルメディア反応(いいね、嫌い、コメント、共有、反応なし)を予測する際の、LLMベース・エージェントの精度をベンチマークする。研究1では、エージェントは全体で70.7%の精度を達成し、LLMの選択によって13ポイントの性能差が生じた。研究2では、二値の強制選択(いいね/嫌い)評価を用い、偶然補正の指標を採用した。エージェントはMatthews相関係数(MCC)0.29を達成し、偶然を超える真に予測可能なシグナルがあることを示している。しかし、TF-IDF表現を用いた従来のテキストベースの教師あり分類器は、LLMエージェントを上回った(MCC 0.36)。これは、予測上の向上が、独自のエージェント的推論というよりも、意味へのアクセスによってもたらされていることを示唆する。ゼロショットのパーソナ・プロンプト型エージェントの、予測としての妥当性が本物であることは、ソーシャルメディア上で行動特性の異なるAIエージェントの群れを容易に展開することで起こり得る操作を警告する。一方で、そのようなエージェントをシミュレーションに用いて、分極化のダイナミクスを予測し、AI政策に情報を与えるという機会も同時に提供する。ゼロショット・エージェントを使う利点は、タスク固有の学習を必要としないため、多様な状況にわたって大規模に展開しやすい点にある。限界として単一国のサンプリングが挙げられる。今後の研究では、多言語によるテストや、ファインチューニングのアプローチを検討すべきである。