When Cow Urine Cures Constipation on YouTube: Limits of LLMs in Detecting Culture-specific Health Misinformation

arXiv cs.CL / 4/27/2026

💬 OpinionIdeas & Deep AnalysisModels & Research

Key Points

  • A new arXiv study uses gomutra(牛尿)に関するインドのYouTube発話を事例に、30本の多言語トランスクリプトをLLM支援で分析し、文化固有の健康ミス情報が単純な“誤情報”の形に見えにくいことを示しました。
  • 従来のもっともらしい反論(debunking)コンテンツでさえ、宣伝側と似た修辞的パターン(神聖な伝統語と疑似科学的主張の混在など)を持つため、LLMが体系的に分析しにくくなると報告しています。
  • GPT-4o、Gemini 2.5 Pro、DeepSeek-V3.1の3種でプロンプトのトーンを変えても、文化的に埋め込まれた誤情報は通常の誤情報と見た目が異なり、ジェンダー化されたレトリックやプロンプト設計にも不確実性が増幅されることが示されました。
  • 研究は、LLM支援の言説分析に必要な文化的適応(competency)を、プロンプトエンジニアリングだけで後付けするのは困難だと結論づけています。

Abstract

Social media platforms have become primary channels for health information in the Global South. Using gomutra (cow urine) discourse on YouTube in India as a case study, we present a post-facto Large Language Model (LLM)-assisted discourse analysis of 30 multilingual transcripts showing that promotional content blends sacred traditional language with pseudo-scientific claims in ways that sophisticated debunking content itself mirrors, creating a rhetorical register that LLMs, trained predominantly on Western corpora, are systematically ill-equipped to analyse. Varying prompt tone across three LLMs (GPT-4o, Gemini 2.5 Pro, DeepSeek-V3.1), we find that culturally embedded health misinformation does not look like ordinary misinformation, and this cultural obfuscation extends to gendered rhetoric and prompt design, compounding analytical unreliability. Our findings argue that cultural competency in LLM-assisted discourse analysis cannot be retrofitted through prompt engineering alone.