AIはできることが増えているが、何をすべきかを決めるのはまだ苦手?

Reddit r/artificial / 2026/5/6

💬 オピニオンIdeas & Deep AnalysisTools & Practical Usage

要点

  • 投稿者はAIのワークフロー/エージェントを試す中で、文章作成や要約、多段の作業実行など“実行力”は高い一方、失敗は能力不足というより意思決定の弱さにあると述べています。
  • 失敗パターンとして、誤った文脈の選択、エッジケースの見落とし、確認すべき場面で続行してしまうこと、状況に合わないロジック適用などが挙げられています。
  • リードの適格判定とアウトリーチを自動化する例では、クリーンなデータではうまくいったものの、不完全な情報や意図が曖昧な入力では“警告を出して止まる”ことなく誤った実行を続けたとされます。
  • そのためボトルネックは、プロンプト改善や検索(リトリーバル)強化といった“モデル出力”の品質向上だけではなく、ワークフロー全体での文脈・意思決定層(オーケストレーション)をどう設計するかにあるのでは、という見立てです。
  • 投稿者は、主要なボトルネックがモデル出力の改善なのか、それともシステム横断の意思決定(文脈、ロジック、オーケストレーション)の改善なのかを読者に問いかけています。

ここ数週間、AIのワークフロー/エージェントをいろいろ試しているのですが、どうしても静かに解決できない(静かに理解できない)ことがずっと出てきます。ある意味では、AIはコンテンツを書くこと、要約すること、さらにはマルチステップのワークフローを扱うことのような実行面が非常に得意です。しかし、私が見続けている失敗は、実は能力の問題ではありません。むしろ次のような小さな判断です:

- 間違ったコンテキストを選ぶ

- エッジケースを見落とす

- 止まって確認を求めるべきなのに、続行してしまう

- 正しいロジックを、間違った状況に適用する

変なのは、これらは難しい問題ではないという点です。人間が考えずに行う種類の判断なんですよ。私が遭遇した単純な例としては、AIを使って基本的なリードの適格判定+アウトリーチのフローを自動化しようとしたことがあります。クリーンなデータではうまくいったのですが、入力が少しでもごちゃつくと(不完全な情報、意図がやや曖昧など)システムは大声で失敗せず、ただ実行を続けてしまい、結果として間違いました。実行はほとんど解決されているように感じる一方で、ワークフロー内での意思決定はまだかなり脆いままです。最近、プロンプトを改善したりツールを連鎖させたりすることよりも、ワークフローの周りにコンテキストや意思決定の層を構造化することに重点を置いているように見える 60x ai のようなアプローチに出会いました。みなさんはこれについてどう考えていますか。今のボトルネックは主に次のどちらだと思いますか:

- モデル出力の改善(より良いプロンプト、より良いリトリーバル)か

- システム全体で意思決定を改善すること(コンテキスト、ロジック、オーケストレーション)か?

実世界のシナリオで実際に構築したり運用したりしてみた人たちの意見をぜひ聞きたいです。

submitted by /u/Tough_Daikon_4321
[link] [comments]