AI Navigate

著者プロフィール作成を通じた大規模言語モデルにおける文化的シグナルの探査

arXiv cs.CL / 2026/3/18

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • ゼロショット設定において、大規模言語モデルが歌詞から著者プロフィールを推定できるかを評価し、歌手の性別と民族性をタスク固有のファインチューニングなしに推定する。
  • オープンソースモデルを含む10,000曲を超える歌詞データを対象に、研究は非自明なプロファイリング性能を示す一方で、体系的な文化的整合性を明らかにした。ほとんどのモデルが北米系の民族性へデフォルトで傾く一方で、いくつか(例:DeepSeek-1.5B)はアジア系の民族性と一致する。
  • 著者らは、モデル出力の格差とモデル間のバイアスを定量化するために、Modality Accuracy Divergence (MAD) および Recall Divergence (RD) の2つの公平性指標を提案した。
  • 彼らはモデルごとのバイアス差を報告し、Ministral-8B が最も強い民族性バイアスを持つこと、Gemma-12B が最もバランスが取れていることを指摘し、再現性のためのコードをGitHubに提供している。

要旨: 大規模言語モデル(LLMs)は、社会的影響を及ぼすアプリケーションにおいてますます展開されており、それらがエンコードする文化的バイアスについて懸念が高まっています。私たちは、LLMsがゼロショット設定で歌詞から歌手の属性を推定するプロファイリングを実行できるかを評価し、タスク特異的なファインチューニングなしで歌手の性別と民族を推定できるかを検証します。歌詞を対象とした10,000曲超の複数のオープンソースモデルを横断して評価したところ、LLMsは非自明なプロファイリング性能を達成しますが、体系的な文化的整合性を示します。ほとんどのモデルは北米系の民族をデフォルトとしますが、DeepSeek-1.5Bはアジア系の民族とより強く整合します。この所見は、モデルの予測分布と生成された根拠の分析の両方から生じます。これらの差異を定量化するために、Modality Accuracy Divergence(MAD)とRecall Divergence(RD)の二つの公平性指標を導入し、Ministral-8Bが評価対象モデルの中で最も強い民族バイアスを示す一方で、Gemma-12Bは最も均衡の取れた挙動を示すことを示します。我々のコードはGitHubで利用可能です(https://github.com/ValentinLafargue/CulturalProbingLLM)。