ここ数週間、AIのワークフロー/エージェントをいろいろ試しているのですが、どうしても静かに解決できない(静かに理解できない)ことがずっと出てきます。ある意味では、AIはコンテンツを書くこと、要約すること、さらにはマルチステップのワークフローを扱うことのような実行面が非常に得意です。しかし、私が見続けている失敗は、実は能力の問題ではありません。むしろ次のような小さな判断です:
- 間違ったコンテキストを選ぶ
- エッジケースを見落とす
- 止まって確認を求めるべきなのに、続行してしまう
- 正しいロジックを、間違った状況に適用する
変なのは、これらは難しい問題ではないという点です。人間が考えずに行う種類の判断なんですよ。私が遭遇した単純な例としては、AIを使って基本的なリードの適格判定+アウトリーチのフローを自動化しようとしたことがあります。クリーンなデータではうまくいったのですが、入力が少しでもごちゃつくと(不完全な情報、意図がやや曖昧など)システムは大声で失敗せず、ただ実行を続けてしまい、結果として間違いました。実行はほとんど解決されているように感じる一方で、ワークフロー内での意思決定はまだかなり脆いままです。最近、プロンプトを改善したりツールを連鎖させたりすることよりも、ワークフローの周りにコンテキストや意思決定の層を構造化することに重点を置いているように見える 60x ai のようなアプローチに出会いました。みなさんはこれについてどう考えていますか。今のボトルネックは主に次のどちらだと思いますか:
- モデル出力の改善(より良いプロンプト、より良いリトリーバル)か
- システム全体で意思決定を改善すること(コンテキスト、ロジック、オーケストレーション)か?
実世界のシナリオで実際に構築したり運用したりしてみた人たちの意見をぜひ聞きたいです。
[link] [comments]




