AI Navigate

大規模言語モデルにおける進化と圧縮: 人間に適合した分類の出現について

arXiv cs.CL / 2026/3/16

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 論文は、色名付けと情報ボトルネック(Information Bottleneck、IB)のトレードオフを検証することによって、LLMsが人間に整合した意味カテゴリを発展させることが可能かを調べ、モデルの出力を人間データと比較する。
  • LLMsはIB整合性と複雑さがモデルサイズと指示チューニングによって異なることを示しており、より大きなサイズで指示チューニングされたモデルは、より良い整合性とIB効率を示す。
  • 著者らはIterated in-Context Language Learning(IICLL)を導入し、色名の文化的進化をLLMsでシミュレートすることで、LLMsが無作為なシステムを徐々に再構成してより高いIB効率へと向かうのを観察した。これは人間と同様である。
  • 文脈内モデルの中では、最も強力なもの(Gemini 2.0)のみが、人間に見られるほぼ最適なIBトレードオフの全範囲を再現する。一方、他の最先端モデルは低複雑性の解へ収束する。
  • この結果は、人間の意味的効率を支える同じ認知原理を介して、LLMsに人間に適合した意味カテゴリが出現し得ることを示唆し、AIの意味論と人間の分類理論を結びつける。

要旨:人間の意味カテゴリシステムが情報ボトルネック(IB)による複雑さと精度のトレードオフを介してほぼ最適な圧縮を達成するという収束的証拠が示唆されている。大規模言語モデル(LLMs)はこの目的のために訓練されていないため、LLMsが人間に適合した効率的な意味システムへと進化させることができるのか、という疑問が生じる。この問いに対処するため、私たちは色のカテゴリ化に焦点を当てる――これは認知理論の重要な検証基盤であり、独自に豊富な人間データを持つ――そしてLLMsを用いて二つの影響力のある人間研究を再現する。まず、英語の色名付け研究を実施し、LLMsがその複雑さと英語適合性において大きくばらつくことを示し、より大きな指示調整済みモデルはより良い整合性とIB効率性を達成する。次に、これらのLLMsが訓練データのパターンを単に模倣しているのか、それともIB効率性に向けた人間のような帰納的バイアスを実際に示しているのかを検証するために、Iterated in-Context Language Learning(IICLL)と呼ぶ手法を用いて、LLMsにおける擬似色名付けシステムの文化的進化をシミュレートする。人間と同様に、LLMsは初期にランダムだったシステムを反復的に再構築し、より高いIB効率性へと向かうことを我々は発見した。しかし、最も強力な文脈内能力を持つモデル(Gemini 2.0)だけが、人間に観察される広範なほぼ最適なIBトレードオフを再現できるのに対し、他の最先端モデルは低複雑性の解へと収束する。これらの知見は、人間に適合した意味カテゴリが、意味の効率性の根底にある同じ基本原理を介してLLMsに現れることを示している。