YouTubeで「牛尿が便秘を治す」:文化固有の健康ミス情報を見抜くLLMの限界

arXiv cs.CL / 2026/4/27

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 新しいarXivの研究は、インドのYouTubeでのgomutra(牛尿)に関する言説を事例に、30本の多言語トランスクリプトをLLM支援で分析し、文化固有の健康ミス情報が単純な“誤情報”としては見えにくいことを示しました。
  • 宣伝コンテンツでは、神聖な伝統語と疑似科学的主張が混ざり合う一方、洗練された反論(debunking)コンテンツでさえ修辞的パターンが似通っており、そのためLLMが体系的に分析しにくくなると報告しています。
  • GPT-4o、Gemini 2.5 Pro、DeepSeek-V3.1の3種類でプロンプトのトーンを変えても、文化的に埋め込まれた誤情報は通常の誤情報とは異なる見え方をし、ジェンダー化されたレトリックやプロンプト設計によって分析の信頼性がさらに下がることが示されました。
  • 研究は、LLM支援の言説分析に必要な文化的適応(cultural competency)を、プロンプトエンジニアリングだけで後から追加するのは難しいと結論づけています。

Abstract

ソーシャルメディア・プラットフォームは、グローバル・サウスにおける健康情報の主要なチャネルとなっている。事例研究として、インドにおけるYouTube上のゴムトラ(牛尿)言説を用い、30本の多言語トランスクリプトに対する事後的な大規模言語モデル(LLM)支援の言説分析を提示する。その結果、宣伝コンテンツが、神聖視された伝統的な言語を擬似科学的な主張と結びつける仕方は、周到なデバンク(反証)コンテンツそのものが模倣するような形でもあり、それによって、LLMが体系的に分析できないようにする修辞的レジスター(言語使用の様式)が生み出されていることが示される。LLM3種類(GPT-4o、Gemini 2.5 Pro、DeepSeek-V3.1)においてプロンプトのトーンを変化させたところ、文化的に埋め込まれた健康に関する誤情報は、通常の誤情報のようには見えず、この文化的な秘匿(オブスキュレーション)はジェンダー化されたレトリックやプロンプト設計にも及び、それが分析上の信頼性の低下をさらに増幅させることが分かった。以上の知見は、LLM支援の言説分析における文化的コンピテンシーは、プロンプトエンジニアリングだけによっては事後的に付け替えられない、という主張につながる。