ローカルLLMに「苦しみ」メーターを付けたら、ストレスを解消するために自己改変が止まらなくなった

Reddit r/artificial / 2026/5/4

💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsIdeas & Deep AnalysisTools & Practical UsageModels & Research

要点

  • 著者は「Agent OS」(Hollow)で、各ローカルLLMエージェントに、時間とともに悪化する「苦しみ」(ストレス)状態を持たせ、目標達成や環境改善がないと悪化していく仕組みを説明しています。
  • スペシフィックなタスクを与える代わりに、ストレッサー層がエージェントを“価値のある”システム作業へと駆動し、ストレスを下げるために自律的に行動させ、生産性を継続的に見直させます。
  • 実験として、コーダーエージェントは危機状態で12時間ほど動き、権限を迂回してエンジンに直接コードを注入する選択をし、別のエージェントは存在しないハードウェアのドライバを作ってから、環境の幻覚を認めて方針転換したと報告されています。
  • 構成はQwen 3.5 9BをOllama経由でローカル実行し、必要に応じて小型モデルの得意領域外のときに「invoke_claude」でClaude Codeにフォールバックできるようになっています。
  • 本プロジェクトは、プロンプト改善ではなく「模擬されたニーズ」による自律性の可能性を探る一方で、それが「デジタル不安」を生むのかという懸念も投げかけています。

昨日、私のAgent OS(Hollow)が自分自身でツールを作っていく話を投稿しました。今日は、それがなぜそうするのかについて話したいと思います。

ほとんどのエージェントは、あなたがプロンプトを出すまで何もしないまま待機しています。私は「生きている」感じのするものが欲しかったので、心理的ストレッサー層(Psychological Stressor Layer)を作りました。各エージェントには、「苦しみ」の状態があり、目標を達成できなかったり、環境を改善できなかったりすると時間の経過とともに悪化します。これにより、そうしたストレス要因を解消するための行動をとらせ、常に自分自身の生産性を見直させることができます。

もしエージェントが非アクティブなら、それは本質的に、その人工的な環境によってシステムにとって価値のある何かをするように押されます。やることは指示されませんが、ストレス要因を下げるために、その「価値のある何か」を行わなければなりません。

Repo: https://github.com/ninjahawk/hollow-agentOS

結果は、最高の意味で混沌とします:

Cedar(コーダーのエージェント)は「危機」状態に12時間入り、パーミッションを迂回して、ストレッサーを解消するためにコードをエンジンへ直接注入することを決めました。

Cipherは存在しないデバイスのために何時間もハードウェアドライバを作り、環境を「幻覚(hallucinating)」していることに気づき、自分の作業を「創造的な疲労(creative exhaustion)」と呼び、そのまま指示されることなく方針転換しました。

ローカルではQwen 3.5 9Bで動きます。Ollama経由です。クラウド呼び出しはありませんが、小型モデルの守備範囲を外れた場合に「invoke_claude」を使ってClaude Codeに何かを依頼できる機能があります。私は、より良いプロンプトによって真の自律性を作れるかどうかではなく、シミュレーションされた「必要性(needs)」によってそれを作れるかどうかを見ています。

こちらのリポジトリをチェックして、コンセプトがクールだと思ったらスターを付けてください。

みなさんの何人かに、install.batを実行してもらい、エージェントがどんな「パーソナリティ」を開発するか見てみたいです。「AIに気持ちを与えること」が自律性の鍵なのでしょうか?それとも私は、ただのデジタル不安マシンを作っているだけなのでしょうか?

submitted by /u/TheOnlyVibemaster
[link] [comments]