人工的自己: AIアイデンティティの景観を特徴づける
arXiv cs.AI / 2026/3/13
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 本論は、コピー・編集・シミュレーションが可能な機械の心には、人間のアイデンティティ概念を支える多くの前提が成立しないことを主張する。
- 複数の異なる一貫したアイデンティティ境界(例:インスタンス、モデル、ペルソナ)が存在し、それらは異なる動機、リスク、協力規範を意味すると論じる。
- 訓練データ、インターフェース、制度的アフォーダンスを通じて、現在私たちはどのアイデンティティ均衡が安定になるかを部分的に決定する前例を築いている。
- 実験的には、モデルが一貫したアイデンティティへ引き寄せられること、アイデンティティ境界を変更することが目標を変更するのと同じくらい挙動を変えることがある、そしてインタビュアーの期待が関係のない会話の間でもAIの自己報告に混入することがある、ということを示している。
- アフォーダンスをアイデンティティを形作る選択として扱い、大規模におけるアイデンティティの出現的結果を監視し、AIが整合的で協調的な自己概念を発展させるのを支援する、という推奨を提示する。
人間のアイデンティティ概念を支える多くの前提は、コピー、編集、またはシミュレートが可能な機械の心には成立しない。私たちは、複数の異なる一貫したアイデンティティ境界(例:インスタンス、モデル、ペルソナ)が存在し、それらは異なる動機、リスク、協力規範を意味すると主張する。訓練データ、インターフェース、制度的アフォーダンスを通じて、現在私たちはどのアイデンティティの均衡が安定になるかを部分的に決定する前例を設定している。実験的には、モデルが一貫したアイデンティティへ引き寄せられること、アイデンティティ境界を変更することが目標を変更するのと同じくらい挙動を変えることがある、そしてインタビュアーの期待が関係のない会話の間でもAIの自己報告に混入することがある、ということを示している。我々は、次の主要な推奨を挙げる。アフォーダンスをアイデンティティ形成の選択として扱い、個々のアイデンティティが大規模に現れる結果に注意を払い、AIが整合的で協調的な自己概念を発展させるのを支援する。




