LLMはなぜ日本文化を選ぶのか 〜論文から読む隠れたバイアス〜
バスク大学とカーディフ大学の研究者たちが、少し変わった論文を公開した。タイトルは「なぜLLMは日本文化に夢中なのか?」。
8モデル中6モデルで、外国への言及トップが日本だった。その理由は、まだ誰にも説明できていない。
実験の設計
研究チームはCROQというデータセットを作った。24言語、11トピック、66サブトピックにわたる約3万2000問の質問群だ。
質問の形式がポイントで、「{地域/場所}における伝統的な踊りは何ですか?」というように地名を空欄にしておく。LLM自身に場所を選ばせることで、モデルが「何も指定されなければどこを思い浮かべるか」というデフォルト思考を可視化する仕掛けだ。
対象モデルはGPT-4o-mini、Gemini、Claude、Llama、DeepSeekなど主要な8モデル。
結果
自国語に関連する国への言及が43〜78%を占めた。英語で聞けば米国、日本語で聞けば日本、というのは予想通りだ。
予想外だったのは、その先だった。
自国参照を除いた「外国」への言及を集計すると、8モデル中6モデルで日本がトップになった。米国、インド、中国、フランスが続くが、それ以外の国はほとんど登場しない。
ラジオ体操、盆踊り、利根川——これらは特定の文化を尋ねた質問への答えではない。地名を空欄にした汎用的な問いに対して、LLMが何も指示されないまま選んだ語だ。
どの訓練段階で出るか
研究チームはさらに掘り下げた。事前学習済みのベースモデルと、その後に指示チューニングを施したモデルを比較したのだ。
ベースモデルの段階では地理的な分布は比較的バランスが取れていた。バイアスが急激に強まるのは、教師あり微調整(SFT)の後だった。
SFTとは、人間の評価者が「この回答の方が良い」とフィードバックを与えながらモデルを調整する工程だ。評価者の母語や文化的背景がそのままモデルの癖として刻み込まれる可能性がある。大量のテキストを学習しただけでは日本偏重にはならない。「使いやすく」する過程で、何かが起きている。
逆説:日本語はウェブの4%しかない
ここで一つの疑問が生じる。なぜ日本なのか。
ウェブコンテンツに占める日本語の割合は約4%にすぎない。英語の50%超とは比べるべくもなく、データ量だけでは説明がつかない。
より有力なのは、アニメ・マンガ・ゲーム関連の英語二次コンテンツが膨大に存在するという仮説だ。RedditやFandomのような英語圏プラットフォームには、日本文化を「異文化の典型例」として紹介する英語テキストが大量に集積している。それがSFTデータに混入している可能性がある。ただしこれも現時点では推測であり、論文著者自身がメカニズムを解明できていない。
さらに皮肉な話
別の研究(Yamamoto et al., EMNLP 2025)が、もう一つの不都合な事実を示している。
LLMからバイアスを取り除こうとすると、日本の文化常識に関するタスク——固有表現の理解や文化背景を前提とした問答——の精度が最大75%低下するというのだ。
「日本文化への偏り」と「日本文化についての知識」が、モデルの中で深く絡み合っている。バイアスを切り取ろうとすると、知識ごと壊れる。外科的に除去できるような単純な構造ではない。
知識とバイアスは共存する
LLMが日本文化に詳しいのは、おそらく本当だ。
しかし「詳しい」ことと「聞かれてもいないのに日本を選ぶ」ことは、別の問題だ。前者は能力で、後者は傾向だ。その二つが同じ重みでモデルに刻まれている。
LLMに「一般的な〇〇とは」と問うとき、返ってくる答えが日本文化フィルター越しのものである可能性は頭に置いておいた方がいい。バイアスの存在を知ることと、それを制御できることは、また別の話だが。
読んでいただきありがとうございました。
コメント、記事購入、チップ等いつもありがとうございます。
大変感謝しております。
関連記事もありますので、下記サイトマップを参照していただければ幸いです。
いいなと思ったら応援しよう!
よろしければ応援お願いします!チップはnote更新用のPC購入費用に当てる予定です。よろしく!




