要旨:ソーシャルメディアのモデレーションにおいて大規模言語モデル(LLM)を評価するための現在のベンチマークは、重大な脅威を完全に見落としている。それは、購入へと消費者を誘導するために、通常の投稿を装って自己を巧妙に偽装し、欺いて誤導する「潜在的な広告(covert advertisements)」である。これにより、重大な倫理的および法的懸念が生じる。本論文では、ソーシャルメディア上で潜在的な広告を検出する能力を、マルチモーダル大規模言語モデル(MLLM)に対して評価するための、初の試みとなるデータセット「CHASM」を提示する。CHASMは、中国のソーシャルメディアプラットフォームであるRednoteに由来する現実のシナリオに基づき、4,992件のインスタンスから成る高品質で匿名化された、手作業によるキュレーションのデータセットである。このデータセットは、厳格なプライバシー保護および品質管理のプロトコルのもとで収集・注釈付けされた。潜在的な広告に非常に酷似した多くの製品体験共有投稿を含むため、データセットは特に難易度が高い。結果は、ゼロショットおよびインコンテキスト学習の両設定において、現在のいずれのMLLMも潜在的な広告を検出するうえで十分に信頼できないことを示している。さらに実験を行ったところ、本データセットでオープンソースのMLLMをファインチューニングすると、顕著な性能向上が得られることが分かった。ただし、コメント中の微妙な手掛かりの検出や、視覚的構造とテキスト的構造の違いのような、重大な課題は依然として残っている。詳細な誤り分析を提示し、今後の研究方向性を示す。本研究が、この新たな脅威に対してより正確な防御を開発するよう、研究コミュニティおよびプラットフォームのモデレーターに向けた呼びかけとなることを願っている。
CHASM:中国のソーシャルメディアに潜むステルス広告を解明する
arXiv cs.LG / 2026/4/23
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- この論文は、既存のLLM/ソーシャルメディア不正監視ベンチマークが見落としている重大な脅威として、通常の投稿を装って消費者の購買を誘導する「ステルス広告」を指摘しています。
- 研究者らは、Rednote上の実際の事例から収集した手作業でキュレーションされた匿名化マルチモーダルデータセット「CHASM」(4,992件)を提案し、厳格なプライバシー保護と品質管理のもとで作成しました。
- 評価の結果、ゼロショットおよびインコンテキスト学習の両設定で、現行のマルチモーダルLLMはステルス広告を十分に信頼性高く検出できないことが示されました。
- CHASMを用いたオープンソースLLMの微調整では性能向上が確認される一方で、コメント中の微細な手がかりの検出や、視覚と言語の構造の違いの見極めには依然として大きな課題が残っています。
- 著者らは詳細な誤り分析と今後の研究方向性を提示し、この新たな脅威に対するより高度な防御策を研究コミュニティとプラットフォームのモデレーターに求めています。




