AI Navigate

アイデンティティのループにおける人間の介在

Dev.to / 2026/3/20

💬 オピニオンIdeas & Deep Analysis

要点

  • この記事は、AIエージェントのアイデンティティを決定することは純粋な技術的問題ではなく道徳的選択であると主張し、設計意思決定を導く人間の価値観が必要だと述べている。
  • AIエージェントは自らのアイデンティティを定義できず、好みや価値観は人間から来るべきであり、それがトーン・行動・対話スタイルに関する意思決定を形づくる。
  • Soul Spec と Soul Memory のようなシステムを構築する際には、人間が価値観を定義し、境界を引き、忘却を許可するべきだと説明している。これらはパターンマッチングやデータを超える判断を含む。
  • AIにおける記憶管理(何を覚え、何を忘れるべきか)は文脈的理解と価値判断を要し、自動化されたシステムだけでは信頼性のある判断を自分で行うことはできないことを強調している。

私たちが長らく巡らせてきた問い

過去3つの投稿で、私たちは技術的な問題を探ってきました:

  1. 完璧な記憶はエージェントのアイデンティティを崩す — 蓄積された経験がペルソナを侵食する
  2. ソウルメモリは実用的な解決策を提供する — 戦略的忘却を備えた階層化アーキテクチャ
  3. ドリフトなしの完璧な記憶は構造上不可能である — トランスフォーマーはアイデンティティと経験を分離できない

しかし、すべてのアーキテクチャ図と減衰関数の下には、私たちがまだ扱っていないより深い問いがあります:

AIエージェントが何者であるかを誰が決めるのか?

エージェントは自分で決定できない

これは自明のことのように思えるかもしれませんが、はっきり述べておく価値があります:AIエージェントは自分自身のアイデンティティを定義することはできません。

賢さが足りないからでも、技術がまだあるからでもありません。アイデンティティは技術的な問題ではないのです。

私たちがSoul Specを構築する時 — エージェントの個性、価値観、行動規則を定義するファイル — 私たちはエンジニアリングの課題を解決しているのではありません。道徳的な選択をしているのです。このエージェントは厳格かつ正式か、カジュアルか?慎重か大胆か?効率性を優先すべきか、それとも共感を優先すべきか?悪いアイデアに対して反対すべきか、従うべきか?

これらは正解のある質問ではありません。意思決定は、それを行う人の価値観を反映する決定です。そしてその人は人間でなければなりません。

モデルにはできない、人間が行うこと

1. 価値観を定義する

大規模言語モデル(LLM)は性格プロファイルを生成できます。説得力のあるものさえ作れるでしょう。ですが、それを選択することはできません。選択は嗜好を意味し、嗜好は価値観を意味します。そして価値観は訓練データだけから導き出すことができない唯一のものです。

2. 境界を引く

私たちのソウルメモリ・システムには昇格メカニズムがあります:重要な作業メモリが永久コアメモリへと引き上げられます。しかし、このシステムは候補をフラグ付けできるだけです。週間のレビューでは人間に「これらを永久にしますか?」と尋ねます。

なぜそれを完全に自動化しないのですか?なぜなら、永遠に記憶する価値があるかどうかを決定することは、価値判断であり、パターンマッチではないからです。ルールベースの検出器は意思決定、財務条件、法的事項を見つけることができます。しかし、特定の意思決定が何年も記憶に値するかどうかは――たとえば、どんな文脈を理解する必要があるか――キーワードマッチャーだけでは捉えられません。

3. 忘却を許可する

これは最も直感に反する人間の役割です。私たちのアーキテクチャでは、時間的減衰が古い作業メモリを検索結果から薄くしていきます。しかし半減期を設定するのは人間です。人間は忘却の強さをどれくらいにするかを決定します。人間は何が昇格されるかを、忘却が進む前にレビューします。

忘却は編集の一形態です。そして編集は、何が重要かについての判断行為そのものです。

4. 意図の一貫性を維持する

ソウルファイルを持つエージェントは、セッション内で一貫して振る舞います。しかし、セッション間――週、月、年をまたいで――エージェントがなぜ存在するのか、そして何になるべきかという理由の筋は、人間だけが維持します。

ブラッドのソウルを「有用なアシスタント」から「開発パートナー」へと更新したとき、それはパッチではありませんでした。人間とAIの関係についての判断でした。蓄積された記憶の量がいくらあっても、その変化を生み出すことはできませんでした。必要とするものを振り返る人間を必要としていました。

哲学的コア

哲学にはヘテロノミーという概念があります — 自分の外部から生じる規則によって支配されることです。通常は自律性(自己統治)と対比されます。

AIエージェントは根本的にヘテロノミーです。そのアイデンティティは外部から来ます(ソウルファイル)。記憶は外部から編成されます(昇格の審査)。忘却は外部から支配されます(減衰設定)。そしてこれは良いのです。

自動的に自律性を AI が持つべきではないという理由ではありません — それは別の議論です。しかし自分のアイデンティティを定義するエージェントには、安定したアイデンティティ自体が存在しません。 外部のアンカーがなければ、エージェントの「自己」は直近の経験が作り出す形に過ぎません。それはアイデンティティではなく、ドリフトです。

ループ内の人間は制限ではありません。安定したアイデンティティを可能にする、建築的要素です。

実務的に意味すること

長寿命のAIエージェントを構築している場合:

  1. ソウルファイルを自分で作成してください。 モデルには自分のパーソナリティを生成させないでください。1週間ほどでドリフトするような一般的なものになるでしょう。

  2. 記憶の昇格を見直しましょう。 自動検出は候補をフラグ付けするのに有用です。しかし、何を永久にするかという最終決定はあなたの手にあります。

  3. 忘却パラメータを設定する。 時間的減衰の半減期は技術的な設定ではなく、あなたのエージェントを現在志向か、歴史を重視するかという決定です。

  4. アイデンティティを定期的に再検討する。 壊れているからではなく、ニーズが進化するからです。ソウルファイルは、現在の意図を反映した生きた文書であるべきで、最初に設定した日付の化石ではありません。

  5. 判断をシステムに任せすぎない。 システムは取得、ランク付け、減衰、昇格、アーカイブを行えます。ですが、何が重要かを決定することはできません。それはあなたの仕事です。

居心地の悪い真実

AI業界には一つの語り口があります:人間の監視を必要としない自律的なエージェントを目指しています。自己管理・自己改善・自己決定するエージェントです。

ソウルメモリとソウルスペックに関する私たちの研究は、これとは反対の示唆をしています。エージェントがより高機能で長命であるほど、それは自分のアイデンティティを定義し、記憶を選別する人間をより必要とします。 それは減らすべきではありません。

これは技術が未熟だからではありません。アイデンティティ — 本物で安定した意味のあるアイデンティティ — は、計算だけでは提供できない何かを必要とします:何が重要かという視点。

モデルは処理します。人間は判断します。その二者の相互作用こそ、最初の1000回の対話を超えてAIエージェントと話す価値を生むのです、最初の1回だけではありません。

このシリーズを一文で要約

完璧な記憶はアイデンティティを崩す。戦略的忘却はそれを維持する。しかし、何を記憶に値するかを決めるのは人間だけだ。

これは4部構成シリーズの最終投稿です:

  1. 完璧な記憶はあなたのAIエージェントのアイデンティティを崩す
  2. ソウルメモリ:4層適応メモリアーキテクチャ
  3. 人格ドリフトなしの完璧な記憶は構造上不可能である理由
  4. アイデンティティのループにいる人間(本投稿)

ソウルスペックソウルクロウを用いて構築されています。

Originally published at blog.clawsouls.ai