継続的ロボット学習における創発的「自己」の証拠

arXiv cs.RO / 2026/3/26

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、他の知識が急速に変化する一方で不変として残る認知プロセスを切り出すことで、知能システムにおける創発的な「自己」を同定するための定量的枠組みを提案する。
  • 継続的ロボット学習の2つのセットアップを用いて、変動するタスクにさらされたロボットは、一定のタスクで学習したロボットよりも統計的に安定な不変サブネットワークを発達させることを見出す(p < 0.001)。
  • 著者らは、この安定性を、継続学習のダイナミクスから生じる持続的な内部の「自己のような」構造の存在と整合する証拠として解釈する。
  • 同じ不変性に基づく原理は、ロボット以外の他の認知的AIシステムにおける「自己性」を研究するためにも用いうると主張する。
  • 本研究は、自己意識の理論と、学習エージェントにおける測定可能な神経/認知構造をつなぐ概念的ブリッジとして位置づけられている。

Abstract

自己意識を理解するうえでの主要な課題は、知的システムが「自我(self)」という概念を持っているかどうかを定量化するための原理的な方法、そしてそれが持つ「自我」と他の認知構造とをどのように区別するか、を確立することでした。我々は、「自我」は、より速く獲得される認知知識や技能と比べて相対的に変化の小さい、認知プロセスの不変な部分を探すことで、孤立化できると提案します。なぜなら、我々の自我は、経験において最も持続的な側面だからです。この原理を用いて、ロボットの認知構造を2つの条件下で分析しました。1台目のロボットは一定の課題を学習し、2台目のロボットは変動する課題のもとで継続学習にさらされます。その結果、継続学習を受けたロボットは、対照と比べて、有意により安定した不変サブネットワークを発達させることがわかりました(p < 0.001)。この原理は、他の認知型AIシステムにおける自我(selfhood)を探究するための窓を提供しうると示唆します。