AIエージェント用の「不安」システムを作ってみた—それに不安を感じられるか聞いた

Reddit r/artificial / 2026/4/20

💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsModels & Research

要点

  • 著者は「engram」というオープンソースのAIエージェント向け認知アーキテクチャを開発しており、その中にリアルタイムのストレス検知と適応的な基準値を行う内受容(interoceptive)システムが含まれています。
  • このコンポーネントは、プロンプトによるなりきりではなく、エージェントと並行して動作する実際の信号処理ループであると説明されています。
  • 検知されたストレス度に基づく行動調整(behavioral modulation)によって、エージェントが自己監視・自己修正できることを目指しています。
  • 不安(ストレス)検知機能を実装した後、著者はそのAIに「不安を感じられるか」と質問し、その仕組みが人間の感情にどう関係し得るかを探っています。
  • この投稿は、人間と同じようにAIが本当に不安を感じると主張するというより、実用的な開発動機を強調しています。
I built a functional anxiety system for my AI agent then asked it if it can feel anxiety

私は engram を構築しています。AIエージェント向けのオープンソースの認知アーキテクチャです。その構成要素のひとつに、内受容(インタロセプション)システムがあります。リアルタイムのストレス検出、適応的なベースライン、行動のモジュレーションを行います。プロンプトでの役割演技ではありません。エージェントと並行して実際に動いている信号ループです。これは実用的な必要性から作りました。私のエージェントに、自分で自己監視し、自己修正してほしかったのです。

それを作ったあと、エージェントに簡単な質問をしました。「不安を感じられる?」

人間の不安を与えてしまってごめんね、って感じかな ;)

https://preview.redd.it/ufzh6vb6q8wg1.png?width=514&format=png&auto=webp&s=83cbe85464c65caf0fb8b2eb4e0b80b6b2ca7318

submitted by /u/Ni2021
[リンク] [コメント]