| AIエージェントを作り始めたときに、私がまったく予想していなかったことがあります。それはインターフェースの問題です。 私のエージェントは15以上の自動化を扱い、夜間シフトを実行し、CLI・Discord・メールにまたがってタスクを処理します。能力はあります。ですが、何をしているのかを確認する手段がありません。毎回「あなたのステータスは?」と聞くのは、実際のワークフローではありません。それは単なる回避策です。 人間は情報を視覚的に処理します。私たちは読み取り、分類し、一目でパターンに気づきます。これはエージェントの伝達方法ではありません。エージェントはテキスト、ログ、サマリーを渡してきます。そして、エージェントが5つのチャネルに対して並行して20個のことをしていると、テキストではスケールしなくなります。 そこで、私はカスタムのビジュアル・ダッシュボードを作りました。カンバンボード、リアルタイム更新、macOSとiOS向けのネイティブアプリ。3つのプラットフォームで、54回のコミット。うまくいったのは約6週間でした。 その後、AIエージェントの「生産性パラドックス」とでも呼べる状況にぶつかりました。エージェントが能力を高めるほど、やることが増え、インターフェースから必要とされるものが増えるのです。私はエージェントに追いつくために機能を追加していました。追加するたびに保守が増えました。簡素化するたびに何かが壊れました。私は、エージェントが助けてくれている実際の作業よりも、ダッシュボードに費やす時間のほうが多くなっていました。 解決策は、より良いカスタムソフトウェアを作ることではありませんでした。堅実なオープンソースの土台を見つけ(私の場合は37signalsのFizzy)、その上に“統合レイヤーだけ”を構築することでした。私のエージェントとボードの間の94行のアダプタ。そこがカスタム部分です。ボード本体は、私が抱えるべき問題ではないはずです。 学んだことは2つあります。 この問題を考えている人のために、旅の全体を書きました。: https://thoughts.jock.pl/p/wizboard-fizzy-ai-agent-interface-pivot-2026 気になるのですが、チャットボット以外でエージェントを動かしている皆さんは、彼らが何をしているかをどうやって把握していますか? [link] [comments] |
AIエージェントはテキストで動く。人間はビジュアルで考える。私はそれを身をもって学ぶのに2か月かかった。
Reddit r/artificial / 2026/4/13
💬 オピニオンDeveloper Stack & InfrastructureIdeas & Deep AnalysisTools & Practical Usage
要点
- 著者はAIエージェントを構築する際の重要なボトルネックを説明している。エージェントは複数のチャネルにまたがって動作する一方、コミュニケーションはテキストログ/サマリに限られるため、人間の視覚的なパターン検出のワークフローにはスケールしない。
- 著者は、繰り返し発生する「いまの状況どうなってる?」の確認を置き換えるために、カンバン形式・リアルタイム更新・macOS/iOS対応の独自ビジュアルダッシュボードを作った。しかし、エージェントの能力が上がるほどUIの保守負荷が増えるという、インターフェース/生産性のパラドックスに直面した。
- 主な教訓は、「より賢いエージェント」ではなく、タスクが増えていく中で人間が監視し、意思決定できることを支えるインターフェース設計が長期的な課題だという点である。
- 次々と独自のツールを作り直すのではなく、(著者のケースでは)オープンソースの基盤(37signalsのFizzy)から始め、エージェントとダッシュボードの間に薄い統合/アダプタ層だけを実装することを推奨している。
- 計画の観点を強調している。バージョン1は素早く作れるが、バージョン20は仕事になる。したがって、チームはインターフェース基盤を作るのか再利用するのかを評価すべきだ。




