心はどこにあるのか?ペルソナ・ベクトルとLLMの個体化
arXiv cs.CL / 2026/4/21
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- この論文は、大規模言語モデル(LLM)における「個体化問題」に取り組み、LLMに関連づけられるどの実体(もしあれば)を「心(mind)」として同一視すべきかを問う。
- ペルソナ・ベクトルやペルソナ空間、創発的なミスアライメントに関する最近の実証研究を踏まえ、機械論的解釈可能性を分析の枠組みとして提示する。
- 著者らは有力な候補として3つの見方——仮想インスタンス視点、(仮想)インスタンス・ペルソナ視点、モデル・ペルソナ視点——を挙げる。
- 仮想インスタンス視点について、注意ストリームがトークン時間をまたいで準心理的なつながりを維持し得ると主張して根拠づける。
- ペルソナの内部構造に関する3つの仮説を整理しつつ、ペルソナに基づく2つの見方が有望な代替案だと結論づける。




