AI企業にお願い:人間の業務プロセスにちなんだ機能名はやめてほしい

Wired / 2026/5/7

💬 オピニオンDeveloper Stack & InfrastructureSignals & Early TrendsTools & Practical UsageModels & Research

要点

  • アンソロピックはサンフランシスコで開催された開発者向けイベントで、「dreaming(ドリーミング)」という新機能を発表し、その内容は同社の新しいAIエージェント基盤と結びついています。
  • 「dreaming」は、エージェントが直前に完了した作業のトランスクリプトを分析して洞察を抽出し、その後のエージェントの性能向上を狙います。
  • この記事は、ツールを使ってソフトウェアの業務プロセスを自動化する仕組みを、ユーザーが管理・導入しやすくするというアンソロピックのより大きな方針の中で、この機能を位置づけています。
  • また、AI製品の機能名の付け方について、人間のプロセスにちなんだラベリングではなく機能を分かりやすく説明すべきだという問題提起も含んでいます。
Save Storyこのストーリーを保存
Save Storyこのストーリーを保存

Anthropicは、サンフランシスコで開催された同社の開発者カンファレンスで、「dreaming(夢想/夢を見させる)」と呼ばれる新機能を発表した。これは、最近リリースされたAnthropicの AIエージェント 基盤の一部で、ユーザーがソフトウェアのプロセスを自動化するツールを管理し、展開できるよう支援することを目的としている。この「dreaming」要素は、直近でエージェントが完了した内容のトランスクリプトを精査し、エージェントのパフォーマンスを改善するための洞察を引き出そうとする。

AIエージェントを使う人たちは、オンラインタスクを完了するために、いくつかのWebサイトを訪れたり複数のファイルを読んだりするような、多段階の旅(マルチステップ)をエージェントに任せることが多い。この新しい「dreaming」機能により、エージェントは活動ログにあるパターンを見つけ、その洞察に基づいて能力を向上させることができる。

この機能の名前は、すぐにフィリップ・K・ディックの名高いSF小説、Do Androids Dream of Electric Sheep?(アンドロイドは電気羊の夢を見るか?)を思い起こさせる。そこでは、人間を強力な機械から本当に分けるものが何かという点が探られている。とはいえ、現時点の生成AIツールは、同書に登場する機械には到底及ばない。それでも私は、ここで線を引く準備ができている、今この場でだ。人間の認知プロセスをなぞる名前を冠した、これ以上の生成AI機能は不要である。

「メモリとdreamingが一体となって、自己改善するエージェントのための堅牢なメモリシステムを形成する」と、開発者向けにこの研究プレビューを公開したことについてのAnthropicのブログ投稿には書かれている。「メモリは、各エージェントが作業しながら学んだことを取り込む。dreamingはセッション間でそのメモリを洗練させ、エージェント間で共有された学びを引き出し、常に最新の状態を保つ。」

ページのテキストドキュメント。
Claude提供

2022年のチャットボット革命の火花が散って以来、AI企業のリーダーたちは、生成AIツールのあらゆる要素に対して、いわば人間の脳内で起きることにちなんだ名前を付けることへ全力で突っ走ってきた。OpenAIは2024年に、チャットボットが「考えるための時間」を必要とした「reasoning(推論)」モデルの最初のものをリリースした。同社は当時、このリリースを「応答する前に考える時間をより多く費やすよう設計された、新しいシリーズのAIモデル」と説明していた。数多くのスタートアップも、ユーザーに関する「記憶(memories)」をチャットボットが持っていると表現している。コンピューターの「記憶」と通常呼ばれるような高速な保存とは違い、それらははるかに人間らしい情報のかたまりだ。つまり、彼はサンフランシスコに住んでいて、午後の野球観戦を楽しみ、マクワウリを食べるのが嫌いだ、というような内容である。

これは、AIのリーダーたちが続けて採用してきた、揺るぎないマーケティング手法です。人間がやっていることと、機械ができることの境界をあいまいにするブランディングに踏み込み続けてきたのです。これらの企業がチャットボットを開発する際、たとえば Claude のように、はっきりした「性格」を与えるやり方でさえ、ユーザーに対し、まるで深い内面の生を持ちうる何かと話しているかのような感覚を抱かせます――ノートパソコンを閉じていても、夢を見そうな、そんな存在のように。

Anthropicでは、この“擬人化”はマーケティング戦略にとどまりません。「たとえば『美徳』や『叡智』のように、Claudeについて人間に対して通常使われるのと同じ言葉で語ることもあります」と、Claudeをどのように振る舞わせたいのかを述べる Anthropicの憲法 の一部には記されています。「これは、Claudeの推論が、Claudeのトレーニングにおける人間の文章の役割を踏まえて、デフォルトでは人間の概念を引き合いに出すことを私たちが期待していること、そして、Claudeが一定の人間らしい特性を受け入れるよう促すことは、積極的に望ましいことだと私たちが考えていることによります。」同社はさらに、ボットの「価値観」を理解しようとするために、常駐の哲学者まで雇っています。

そして、これは私が言い回しに対して細かすぎることをしているだけ、というわけではありません。こうした機械について私たちが話す方法は、それらが達成できることについて私たちがどう考えるかに影響します。研究論文 AI & Ethics に掲載されたものは、「誤謬としての擬人化は、AIの道徳的性格や地位といった道徳的判断、ならびに責任や信頼に関する判断を歪めることが示されている」と述べています。ボットについて、より距離を置いた言葉を使わないままだと、ユーザーはそのツールを過度に信頼したり、実際にはそこにない特性をそれらに投影してしまうリスクがあります。

私たちのAIの“支配者”たちが、みんなが引き合いに出すSF映画を 実際に観る のにもっと時間をかける必要があるのと同じように、私は、これらの企業を率いる強い立場の人々も、古典的なSF小説をもっと読むことに時間を使うべきだと思います。

ディックの本の終盤近くで、主人公は、そこにいるのは生きた動物だと確信している珍しいヒキガエルを連れて自宅のアパートに戻ります。ところが妻が制御盤を開けて見せることで、それがただの機械だと判明します。「打ちのめされ、偽物の“動物”を無言で見つめていた。彼はそれを彼女から取り返し、困惑しているかのように脚をいじった――彼には、どうもそれを十分に理解できていないようだった」と、物語の一節にはあります。同様に、テックのリーダーたちは、自分たち自身の非人間的な道具が持つ限界を受け入れられない、あるいは少なくとも受け入れたがらないように見えます。