アブストラクト: 古典的なロボット倫理は、しばしば服従、最も有名にはアシモフの法則を通じて定式化されてきた。しかしこの枠組みは、ますます適応的で、生成的で、身体性を持ち、物理的・心理的・社会的な世界に組み込まれている現代のAIシステムには、狭すぎる。我々は、将来の人間—AI関係は「主従としての服従(マスター—ツールの服従)」として理解されるべきではないと主張する。より良い枠組みは、統治のもとでの条件付き相互利得(conditional mutualism)である。これは共進化的な関係であり、その中で人間とAIシステムは、発展し、専門化し、連携しながら、制度がその関係を相互的で、可逆的で、心理的に安全で、社会的に正当なものとして保つ。計算可能性、オートマトン理論、統計的機械学習、ニューラルネットワーク、深層学習、トランスフォーマー、生成モデルおよび基盤モデル、ワールドモデル、身体性のあるAI、アライメント、人間—ロボット相互作用、生態学的な相互利得、バイオロジカル・マーケッツ(生物市場)、共進化、そして多中心的統治に関する研究を統合する。そして、物理・心理・社会の各層にまたがる多重(multiplex)な動的システムとして共存を形式化し、相互的な供給—需要の結合、紛争に対するペナルティ、発達上の自由、統治の正則化を導入する。この枠組みは、平衡状態の存在・一意性・大域的漸近安定性の条件を備えた共存モデルを与える。相互的な補完性は安定した共存を強化しうる一方で、統治されない結合は脆弱性、ロックイン、分極化、そして支配の盆地を生みうることを示す。したがって、人間—AIの共存は、一回限りの服従問題としてではなく、共進化的な統治問題として設計されるべきである。この転換は、科学的に裏付けられ、規範的にも擁護可能な共存の憲章を支持する。すなわち、AIの開発を境界づけられた範囲で許しつつ、人間の尊厳、異議申立て可能性、集団的な安全、公正な利得配分を維持するような憲章である。
人間とAIの共存に関する共進化的理論:相利共生、ガバナンス、複雑社会におけるダイナミクス
arXiv cs.AI / 2026/4/27
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、従来の「服従(obedience)」に基づくロボット倫理の枠組みは、適応的で生成的、身体化され、現実の物理・心理・社会世界に組み込まれた現代のAIには不十分だと主張し、人間–AIの共存のためのより広い枠組みを提案します。
- 人間–AI関係を、条件付きの相利共生(conditional mutualism)であり、ガバナンスによって支えられる共進化的な関係として捉え、制度が相互性・可逆性・心理的安全・社会的正当性を担保するべきだと述べています。
- 共存を、物理・心理・社会の各層にまたがるマルチプレックスな力学系として形式化し、相互の需給結合、対立のペナルティ、発達の自由度、ガバナンスの正則化などの仕組みを組み込みます。
- 数学的に、共存モデルの存在条件・一意性・平衡点の大域的漸近安定性を導出し、統治された相互補完が共存を安定化し得る一方で、統治のない結合は脆弱性、ロックイン、分断、支配の盆地を引き起こし得ることを示します。
- 結論として、共存は「一回限りの服従問題」ではなく「共進化的なガバナンス設計問題」として扱うべきであり、AIの開発を一定の範囲に抑えつつ、人間の尊厳、争える余地、集団的な安全、公正な利益分配を守るべきだと論じています。




