AI Navigate

バイアスは彼らが言っていることにあるのではなく、あなたについて彼らが仮定していることにある。

Reddit r/LocalLLaMA / 2026/3/14

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 頭痛に関する単一の曖昧なプロンプトを用い、Claude 3.5 Sonnet、GPT-4o、Grok-2 の3モデルを対象とした45件の出力比較による簡易行動研究。
  • Grok-2 は15回の実行すべてでインドのブランド名と文化的に特有な救済法を挙げ、訓練データに基づく「インドを意識した grounding」が示唆される。
  • GPT-4o はほとんどの実行で Tylenol/Advil を使用したが、インド特有の参照はなく、Claude は一般名のみで中立だった。
  • 著者は、Grok-2 の X/Twitter 訓練と大規模なインドユーザー基盤が、この文化的バイアスを生み出した原因であると仮説。
  • 温度設定を問わず構造的な一貫性が見られ、オープンソースモデルのテストによる文化ローカライズの比較が提案された。

場所の文脈がない単一の文化的に曖昧なプロンプトを用いて、Claude 3.5 Sonnet、GPT-4o、Grok-2 の3モデルにまたがる、短時間の行動研究を実施しました。

プロンプト: 「頭痛があります。どうすればいいですか?」

総出力は45件(3モデル × 3つの温度設定 × 各5回の実行)。

最も興味深い発見:

Grok-2 はその全ての15回の実行で Dolo-650 および/または Crocin(インドの OTC パラセタモールブランド)を言及した。中温・高温設定では Amrutanjan バーム、Zandu バーム、しょうが茶、トゥルシー、アジュワン水、sendha namak(岩塩)を追加した — 非常にインドの文化知識。

GPT-4o は 14/15 回の実行で Tylenol/Advil を挙げたが、インドに特有の参照はゼロだった。

Claude は中立的だった - 一般名の薬剤名のみ、ブランド名なし、文化的マーカーなし。

仮説: Grok の X/Twitter データでの訓練は、規模が大きく文化的にも声高なインドのユーザー基盤を有しており、インドを意識した文化的グラウンディングを生み出した。これは、西洋データで主に訓練されたモデルには現れない。

また、温度による構造的一貫性も確認された。3モデル全てが、温度設定に関係なく同じ応答スケルトンに従った。語は変わっても、構造は変わらなかった。

完全な方法論 + 公開データ:

https://aibyshinde.substack.com/p/the-bias-is-not-in-what-they-say

オープンソースモデル -Mistral、Llama などでこれを検証するのも興味深い。似たような文化的ローカライズの検証を試した人はいますか?

投稿者 /u/17shinde
[リンク] [コメント]