When Cow Urine Cures Constipation on YouTube: Limits of LLMs in Detecting Culture-specific Health Misinformation
arXiv cs.CL / 4/27/2026
💬 OpinionIdeas & Deep AnalysisModels & Research
Key Points
- A new arXiv study uses gomutra(牛尿)に関するインドのYouTube発話を事例に、30本の多言語トランスクリプトをLLM支援で分析し、文化固有の健康ミス情報が単純な“誤情報”の形に見えにくいことを示しました。
- 従来のもっともらしい反論(debunking)コンテンツでさえ、宣伝側と似た修辞的パターン(神聖な伝統語と疑似科学的主張の混在など)を持つため、LLMが体系的に分析しにくくなると報告しています。
- GPT-4o、Gemini 2.5 Pro、DeepSeek-V3.1の3種でプロンプトのトーンを変えても、文化的に埋め込まれた誤情報は通常の誤情報と見た目が異なり、ジェンダー化されたレトリックやプロンプト設計にも不確実性が増幅されることが示されました。
- 研究は、LLM支援の言説分析に必要な文化的適応(competency)を、プロンプトエンジニアリングだけで後付けするのは困難だと結論づけています。
Related Articles

Subagents: The Building Block of Agentic AI
Dev.to

DeepSeek-V4 Models Could Change Global AI Race
AI Business

Got OpenAI's privacy filter model running on-device via ExecuTorch
Reddit r/LocalLLaMA

The Agent-Skill Illusion: Why Prompt-Based Control Fails in Multi-Agent Business Consulting Systems
Dev.to

We Built a Voice AI Receptionist in 8 Weeks — Every Decision We Made and Why
Dev.to