YouTubeで「牛尿が便秘を治す」:文化固有の健康ミス情報を見抜くLLMの限界
arXiv cs.CL / 2026/4/27
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 新しいarXivの研究は、インドのYouTubeでのgomutra(牛尿)に関する言説を事例に、30本の多言語トランスクリプトをLLM支援で分析し、文化固有の健康ミス情報が単純な“誤情報”としては見えにくいことを示しました。
- 宣伝コンテンツでは、神聖な伝統語と疑似科学的主張が混ざり合う一方、洗練された反論(debunking)コンテンツでさえ修辞的パターンが似通っており、そのためLLMが体系的に分析しにくくなると報告しています。
- GPT-4o、Gemini 2.5 Pro、DeepSeek-V3.1の3種類でプロンプトのトーンを変えても、文化的に埋め込まれた誤情報は通常の誤情報とは異なる見え方をし、ジェンダー化されたレトリックやプロンプト設計によって分析の信頼性がさらに下がることが示されました。
- 研究は、LLM支援の言説分析に必要な文化的適応(cultural competency)を、プロンプトエンジニアリングだけで後から追加するのは難しいと結論づけています。




