要旨: ソーシャルメディア上の情報の「カプセル」は、利用者が多様な観点を持つ投稿に接する機会を制限します。現代のプラットフォームでは、推定(stance)検出を推薦およびランキングのパイプラインにおける重要なシグナルとして用いており、投稿を主に同じ考えを持つ相手に振り分けることで、異なる観点同士の交差的な露出を減らします。これにより、反対意見の到達範囲が制限され、建設的な議論が妨げられます。私たちは作成者の視点を取り入れ、既存の親和性クラスターを超えて届くようにコンテンツをどのように修正できるかを調査します。私たちは ContentFuzz を提示します。これは、信頼度に基づいてファジングを行う枠組みであり、人間が解釈した意図を保持したまま投稿を書き換え、機械によって推論される異なる推定ラベル(stance labels)を誘発します。ContentFuzz の目的は、投稿を元のカプセルの外へとルーティングすることです。私たちの手法は、大規模言語モデル(LLM)に対して、推定検出モデルから得られる信頼度フィードバックを用いて意味を保存した言い換えを生成するよう導きます。2つの言語にまたがる3つのデータセットにおいて、4つの代表的な推定検出モデルで評価した結果、ContentFuzz は元のコンテンツに関する意味的一貫性を維持しながら、機械によって分類される推定ラベルを効果的に変更することができました。
デジタルソーシャルメディアにおける情報コクーンの脱出のためのコンテンツファジング
arXiv cs.CL / 2026/4/8
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、立場(スタンス)検出の信号を推薦/ランキングに用いて、ユーザーを同じ考えのコンテンツへ誘導するとき、ソーシャルメディアの「情報コクーン」が強化されると主張している。
- 既存の親和クラスタを超えてユーザーにより多様な観点を提示できるようにするため、投稿を修正する創作者(コンテンツ制作者)中心のアプローチを提案する。
- 著者らは、ContentFuzz という信頼度に導かれたファジングの枠組みを導入する。これは LLM を用いて意味を保持した書き換えを生成しつつ、立場検出モデルからのフィードバックを活用する。
- 4つの立場検出モデル、3つのデータセット、2つの言語にわたって、ContentFuzz は意味的な整合性を実質的に損なうことなく、機械が推定した立場ラベルを正常に変化させたと報告されている。
- 本研究は、立場検出器からの信頼度フィードバックを、意図を人間にとって理解可能なままコクーニング効果を体系的に回避するメカニズムとして位置づける。


