LLMの事前学習データと事後学習データにおける政治的コンテンツとは何か?

arXiv cs.CL / 2026/4/6

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、LLMにおける政治的バイアスが、学習データの政治的構成によってどのように生じ得るかを調査し、傾き(リーン)分布、データの不均衡、データセット間の類似性、そしてデータとモデル目的の整合性を軸に研究を位置づけている。
  • サンプリング、政治的傾向の分類、立場(スタンス)の検出を用いて、事前学習コーパスが体系的に左派寄りの内容に偏っており、事後学習データよりも政治的に関与した素材を大幅に多く含むことを見いだしている。
  • 本研究は、学習データで検出された政治的スタンスと、モデルの政策スタンス行動との間に強い相関があることを報告しており、データ構成が下流の出力を直接形作っていることを示唆している。
  • さらに、政治的バイアスは基盤モデル(ベースモデル)の段階ですでに存在し、異なるキュレーション戦略を採用した場合でも、事後学習の各段階を通じて持続することを明らかにしている。
  • 全体として、より効果的なバイアス低減戦略の基盤となるためには、データの透明性を一層高める必要があることを結果が強調している。

要旨: 大規模言語モデル(LLM)は、政治的に偏った文章を生成することが知られています。それでも、そのようなバイアスがどのようにして生じるのかは依然として明らかではなく、効果的な緩和策を設計することが難しくなっています。私たちは、これらのバイアスが学習データの構成に起因しているのではないかと仮説を立てます。データ中心の観点から、(1) データに含まれる政治的傾向、(2) データの不均衡、(3) データセット間の類似性、(4) データとモデルの整合性、に関する研究課題を定式化します。次に、政治的コンテンツへの曝露が、政策課題に関するモデルのスタンスとどのように関係しているかを調べます。私たちは、大規模サンプリング、政治的傾向の分類、スタンス検出を組み合わせて、オープンソースLLMの事前学習データセットおよび事後学習データセットの政治的コンテンツを分析します。その結果、学習データは左寄りのコンテンツに体系的に偏っており、事前学習コーパスには、事後学習データよりも大幅に政治的に関与した素材が多く含まれていることがわかりました。さらに、学習データにおける政治的スタンスとモデル挙動の間には強い相関があることを観察し、異なるキュレーション戦略にもかかわらず、事前学習データセットは同様の政治的分布を示すことを示します。また、政治的バイアスはベースモデルの時点ですでに存在しており、事後学習の段階を通じても持続することを見出します。これらの知見は、モデル挙動を形作るうえでデータ構成が中心的な役割を果たすことを強調するとともに、より高いデータ透明性の必要性を動機づけるものです。

LLMの事前学習データと事後学習データにおける政治的コンテンツとは何か? | AI Navigate