概要: 生成型AI(GenAI)の台頭は、人間の生活の多くの側面に影響を与えてきました。これらのシステムが日常の実践に組み込まれていくにつれ、責任ある導入とガバナンスのために、それらに対する公衆の信頼を理解することもまた不可欠になります。AIにおける信頼に関する先行研究は主に心理学やヒューマンコンピュータインタラクションに基づいてきましたが、GenAIおよび大規模言語モデル(LLM)における信頼と不信を測定するための、計算論的で大規模かつ縦断的なアプローチは不足しています。本論文は、多年にわたるRedditのデータセット(2022--2025)を用いて、GenAIにおける信頼と不信に関する最初の計算論的研究を提示します。このデータセットは、39のサブレディットと230,576件の投稿にまたがります。代表的なサンプルに対するクラウドソースによる注釈と、分類モデルを組み合わせることで、分析をスケールします。その結果、信頼と不信は時間の経過とともにほぼ均衡していることが分かりました。ただし、信頼が不信をわずかに上回り、主要なモデルのリリースに伴って変化が生じます。技術的パフォーマンスと使いやすさが、次元(要素)として支配的であり、一方で態度を形成する最も頻繁な理由は個人的な経験です。また、信頼する側(例えば専門家、倫理学者、一般ユーザ)ごとに異なるパターンも現れます。本研究の成果は、大規模な信頼分析のための方法論的枠組みと、GenAIに対する公衆の認識がどのように変化していくかについての洞察を提供します。
生成AIにおいて私たちは(不)信を抱くのか?Redditの議論における信頼と不信の計算機分析
arXiv cs.CL / 2026/3/25
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、2022〜2025年の複数年にわたるRedditデータを用い、39のサブレディットと230,576件の投稿に対して、生成AIに向けた公的な信頼と不信を対象とする大規模な計算機研究として初めての試みを行う。
- クラウドソースによるアノテーションと分類モデルを組み合わせることで分析を縦断的にスケールし、信頼と不信は時系列を通じてほぼ拮抗しているものの、わずかに信頼が優勢であることを見出す。
- 本研究では、主要なLLM/モデルのリリースに合わせて態度が変化することを観察しており、公衆のセンチメントが重要な技術的出来事に反応することが示唆される。
- 信頼と不信は主に技術的な性能と使いやすさによって形成され、一方で、最も多く挙げられる理由は個人的な経験である。
- 著者らは、信頼の担い手のタイプ(例:専門家、倫理学者、一般ユーザー)ごとに異なる信頼/不信のパターンを特定し、将来の信頼測定を大規模に行うための方法論的枠組みを提案する。
