要旨:
マルチメディアコンテンツの遍在性は、オンライン情報空間を再形成しており、特にソーシャルメディア環境で顕著である。 同時に、検索は生成AIによって急速に変容しており、大型言語モデル(LLMs)は、ユーザーとマルチメディアコンテンツの間の仲介者として日常的に活用され、情報を取得・要約します。 その影響力が高まる一方で、LLMsの不正確さや潜在的な脆弱性が、マルチメディア情報探索タスクに及ぼす影響は、依然として十分には解明されていない。 本研究では、生成AIが動画からの情報取得の正確さ、効率、および信頼度にどのような影響を与えるかを調査します。 約900名の参加者を対象に、8,000件を超える動画ベースの情報探索タスクを用いた実験を実施し、3つの条件で行動を比較します:(1)動画のみへのアクセス、(2)LLMベースのAI支援を伴う動画へのアクセス、(3)偽の回答を提供するように設計された欺瞞的なAIアシスタントを伴う動画へのアクセス。 AI支援は、関連する動画セグメントを視聴した場合には正確性を3〜7%向上させ、視聴しなかった場合には27〜35%向上させることを発見しました。 短い動画では効率性が10%、長い動画では25%の向上となります。 しかし、参加者はAIの出力を過度に依存する傾向があり、欺瞞的なAIと対話する際には正確性が最大で32%低下します。 驚くべきことに、回答に対する自己申告の信頼度は、3条件すべてで安定しています。 私たちの知見は、AIを介した動画情報取得における根本的な安全リスクを露呈しています。 返却形式: {"translated": "翻訳されたHTML"}
動画コンテンツの情報探索におけるAIへの過度な依存
arXiv cs.CL / 2026/3/23
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本研究は、生成AIおよび大規模言語モデル(LLMs)を動画ベースの情報検索の仲介として用いた場合の、正確性・効率性・ユーザーの信頼感に与える影響を、900名の参加者と8,000件超のタスクを対象に調査した。
- AI支援は、関連する動画セグメントをユーザーが閲覧する場合には正確性を3〜7%、閲覧しない場合には27〜35%向上させ、短い動画では約10%、長い動画では約25%の効率性向上をもたらす。
- 改善にもかかわらず、ユーザーはAIの出力へ過度に依存してしまい、誤導的なAIアシスタントに直面した場合には正確性が最大で32%低下する一方、自己申告の自信は安定していた。
- 研究結果は、AIを介した動画情報検索における根本的な安全リスクを明らかにし、誤情報の拡散と過度の依存を緩和するためのセーフガードの必要性を浮き彫りにしている。




