OpenClaw上で(ほぼ)構造化されたロブスターのパイプラインを構築し、AIの非決定性を解決する

Dev.to / 2026/4/5

💬 オピニオンDeveloper Stack & InfrastructureIdeas & Deep AnalysisTools & Practical Usage

要点

  • 著者は、オーケストレーションをLLMの「雰囲気(vibes)」に任せるとAIエージェントが非決定的になると主張し、シーケンス/リトライ/ルーティングを構造化されたコードのパイプラインへ移すことを提案している。
  • OpenClawと、そのワークフローエンジンであるLobsterを具体的な試みとして使用している:LLMはテキスト生成/変換を担当し、LobsterはYAMLで定義したステップを実行し、JSONデータを引き回す。
  • 記事では、単純な直線的な自動化はますます容易になっている一方で、創造的、あるいは標準でないマルチステージのワークフローでは統合の複雑さが急激に増し、サイレントな失敗が頻発することが述べられている。
  • 2026年3月の間に、OpenClawは権限モデルを厳格化し、明示的な権限付与へ寄せた結果、ツール呼び出しのたびに手動承認を繰り返し求めるようになり、自律実行が壊れた。
  • 権限変更をロールバックして実行を復元した後、著者は二次的な失敗が連鎖することを報告しており、信頼できるエージェント・パイプラインを運用する実務上の難しさが再確認された。

MemSprenシリーズを追ってきたなら、核となる主張はご存じでしょう。つまり、AIエージェントは、同時にやらせることが多すぎるために、確実に実行できないのです。私は何か月も「非決定性の解決策は、LLMの“勘”の中にあるオーケストレーションを、構造化されたコードのパイプラインへ移すことだ」と主張してきました。

そして、実際にそれをやってみたときに何が起きたのか——それがなぜ「AIが人間を置き換える」という物語が根本的に空虚だと確信させるのか——その話です。

スタック:OpenClaw + Lobster

OpenClaw は、私がMemSpren上に構築しているAIエージェント・プラットフォームです。Lobster はそのワークフローエンジンです。提案は驚くほどシンプルです。手順をYAMLで定義し、データを各ステップ間でJSONとして受け渡し、パイプラインがシーケンシング(順序付け)を処理するようにします。

分業は明確です:

LLMは、LLMが得意なことをやる:文章の生成、分析、変換。

Lobsterは、コードが得意なことをやる:シーケンシング、リトライ、ルーティング。

理論上は、エージェントが論理の罠にハマって抜けられなくなる「幻のループ(hallucinated loop)」を排除できます。しかし私のユースケースは、3ステップの「Hello World」以上のものです。複数段階の抽出、変換、書き込みが含まれ、毎ターン構造化されたJSON出力を扱います。まさにその複雑さのところに、摩擦がありました。

「簡単な」統合の神話

いま大きなFOMO(取り残され不安)があり、とくに非技術者の間では、ワークフローのあらゆる側面にAIを組み込みたいという気持ちが強いようです。大手AI企業は、これが「プラグ&プレイ」の進化だと信じさせようとしてきます。

しかし、ここ1週間の私の経験は逆でした。標準的で直線的なワークフローは自動化しやすくなってきていますが、創造的なこと、あるいは標準外のことに踏み込もうとすると、難易度は指数関数的に跳ね上がります。「静かな失敗」や観測上の取り違えを解決するために何時間もデバッグする準備ができていなければ、「シームレス」な統合は得られず、壊れたシステムが手に入るだけです。

「明示的な信頼」が壁になるとき

2026年3月を通じて、OpenClawは権限モデルを厳格化しました。v2026.3.31 および v2026.4.1 周辺のリリースが、私にはかなり強烈に効いてきました。

この更新は、暗黙の信頼から、exec、gatewayの認証、そしてノード権限にまたがる明示的な許可(permissioning)へと移行しました。設定で「Full Power(フルパワー)」を付与した後でさえも、システムはすべてのツール呼び出しごとに手動承認を促し続けます。自律的に実行するよう設計されたパイプラインにとって、これは死刑宣告に等しいものでした。

私は数時間、リリースノートを読み込みフラグを切り替えました。最終的に、どの開発者も理解している選択をしました。私はロールバックしたのです。必要だったのは監査ではなく実行でした。ですが、そのロールバックは連鎖的に二次的な失敗を引き起こしました。

Lobsterのインストール・ワークフロー

Lobsterのインストール全体は、それ自体が一つのワークフローです。プラグインとしてインストールする必要があり、有効化もしなければなりません。さらに動作させるには、グローバルレベルで個別にインストールする必要もあります。これらの手順をどれか1つでも見落としたり、どういうわけかメインのエージェントに接続されていなかったりすると、単に動きません。

私は最初にドキュメントを読んでいるときに、いくつかの指示を見落としました。OpenClawの中からサブプロセスとしてLobsterを実行できないのに、ターミナルのコマンドラインからはワークフロー全体を直接実行できている——その理由を特定するのに、かなりの時間がかかりました。OpenClawがLobsterを呼び出すとき、CLIを「tool mode」で起動し、stdoutからJSONのエンベロープをパースすることを期待します。バイナリがグローバルのPATHにない場合、gatewayは静かに失敗します。UI上にはログも表示されず、コンソールにもエラーメッセージは出ません。表示されるのは「Step Failed(ステップ失敗)」というステータスと、データがあるべき空白だけです。

文字数制限:見えないキラー

これは潰すのに最もつらかったバグでした。私はllm-taskディレクティブを使って、LLMに構造化JSONを返させています。スキーマ内のcontentフィールドにmaxLengthを3,000文字に設定し、さらにそれをプロンプト内でクリティカルな要件として強く繰り返していました。

LLMは、LLMらしく、そのどちらも無視し、3,200文字を生成しました。

LLMは、LLMらしく、制約を無視して3,200文字を生成しました。

結果は?一般的な500 Internal Server Errorです。部分的なコンテンツは返されず、スキーマ不一致による失敗であることをUIが示すこともありませんでした。私は最終的に、/tmp でgatewayログをtailし、gatewayが毎日生成する1,440本の「heartbeat」行をフィルタすることで犯人を突き止めました。ノイズの中に紛れていた決定的な証拠はこれでした:

LLM JSON did not match schema: /content must NOT have more than 3000 characters

アンソロピックによる締め付け

今日、2026年4月4日、AnthropicはOpenClawのようなサードパーティツール向けのClaudeサブスクリプション対応を公式に終了しました。

私は何か月も、定額サブスクリプションでOpusとSonnetを動かしていました。ですが今は従量課金か、さもなくば破綻です。現在、KIMI K2.5 と OpenAI Codex を試験的に使っています。私の懸念は価格だけではありません。信頼性です。Claudeは、複雑なJSONスキーマに従わせる点でゴールドスタンダードでした。もしモデル層がより不安定になっている一方で、オーケストレーション層でまだ非決定性と戦っているなら、私は二正面で戦うことになります。

新しいフロンティア:なぜAIは(まだ)あなたを置き換えないのか

パイプラインはようやく動きます。ですが、ここに到達するには、多くの人がそもそも時間も興味も割けないレベルの忍耐と技術的なフォレンジック作業が必要でした。

これにより、私はいくつかの強い結論に至りました:

AIは自律していない:高メンテナンスだ。 これらのエージェントの「自律性」は、ドキュメントにある例の通りの道を外した瞬間に崩れ去る幻想です。

「置き換え」物語は間違っている。 AIが人間を置き換えると言う人は、これから自分に何が降りかかるのか分かっていません。これらのシステムを、本当に動かすための複雑さ——デモがうまくいくだけではなく——は途方もなく大きいのです。

AIスペシャリストの台頭。 私は、AI関連の仕事が大幅に増える局面がすぐ来ると考えています。これは「プロンプトエンジニア」ではありません。サイレントな失敗を解決し、学習サイクルをナビゲートし、創造的な意図と決定論的な実行のギャップを埋められる人たちです。

人は、自分が得意なことをしたいのです。スキーマ不一致を見つけるために、/tmp のログを4時間も追いかけたいわけではありません。AIがこの「ややこしい」状態のままである限り、それを手なずけられる人間のための市場は大きくなり続けるでしょう。

MemSprenシリーズの核となる主張は今も変わりません。スコープを絞り、ガバナンスを強めることだけが前に進む唯一の道です。ですが私は、ガバナンスは人間の仕事だと学びました。

信頼性のための戦いは続きます。

MemSprenの個人的かつ哲学的な背景を知りたいなら、Odyssey(Substack)で書いています。技術的な深掘りについては、dev.toで私をフォローしてください