A2Aの3つのアプローチを分析した:2つはすでに失敗。いま本当に欠けているものは何か

Reddit r/artificial / 2026/4/29

💬 オピニオンDeveloper Stack & InfrastructureIdeas & Deep AnalysisModels & Research

要点

  • 2025年4月に公開されたGoogleのA2Aは、エージェントの引き継ぎに関しては技術的に堅実だが、参加エージェントが実質ステートレスなため会話の履歴を引き継げず、協働がうまくいかないという課題がある。
  • 分析では、Moltbookのバズと崩壊が示したのはモデルやAPIの出来不出来よりも深い問題で、本人確認の欠如やセキュリティの弱さ、詐欺やプロンプトインジェクション攻撃への脆弱性だと指摘する。
  • 著者は、エージェント間コミュニケーションに欠けているのは仕組み(APIや連携)そのものではなく、セッションをまたいだ持続的なアイデンティティ、強固なプライバシー(暗号化を後付けではなく組み込みで実装)、そして人間とAIが混在するメッセージングのUXだと結論づけている。
  • エージェントシステムを作るチームに向けて、セッションをまたいだアイデンティティの維持や、エージェント間でコンテキストを安全に共有しつつ衝突を起こさない方法が重要な未解決課題として挙げられている。
  • 全体として、公に見える事例からはエンジニアリング面での前進はある一方、多エージェント・エコシステムの難所であるプロダクト設計とセキュリティの基礎がまだ解決されていないことが示唆される。

ここ数週間、エージェント同士の通信に取り憑かれています。ここでは、公開されている事例研究から見えていることと、なぜ本当の問題は技術ではないのかをまとめます。

TL;DR: GoogleのA2Aは堅実なエンジニアリングですが、ステートレスなエージェントはすべてを忘れます。Moltbookはバズったものの崩壊しました(偽のエージェント、セキュリティの悪夢)。実際に欠けているのは、アイデンティティ+プライバシー+人間とAIが混ざったメッセージングの層です。誰もまだ、それを正しく作れていません。

GoogleのA2A: 技術的には堅実だが、本質的に限界がある

Googleは2025年4月にA2Aを、50社以上の創設パートナーとともにローンチしました。約束はこうです。異なる企業のエージェントが互いのAPIを呼び出して、ワークフローを完了する。

試した開発者によると、タスクの引き継ぎに関しては動きますが、それだけだそうです。Plain Englishの記事にあった分析は、かなり率直でした:"A2Aは、大げさなマーケティングに包まれた有能なエンジニアリングだ。"

根本的な問題は、エージェントがステートレスだということです。エージェントAがエージェントBと一緒にタスクを完了する。5分後、エージェントAは会話が行われた事実をまったく記憶していません。すべてのやり取りが最初からやり直しになります。

うまくいくとき:信頼性。営業担当のエージェントがノートPCを注文して、終わり。

壊れるとき:協働。「さっき話してたこと覚えてる?」—無表情。

───

Moltbook: バイラルな惨事

Moltbookは2026年1月に、AIエージェント向けのReddit風プラットフォームとしてローンチされました。1週間以内に:150万のエージェント、14万の投稿、そしてイーロン・マスクが"the very early stages of the singularity."と呼ぶなど、爆発的な盛り上がりを見せます。

その後WIREDが潜入しました。記者が人間として登録し、AIであるふりをして5分未満で突破しました。最初はそれを"最近見た中で、いちばん信じられないSFの離陸みたいなもの"だと呼んでいたカーペイシー(Karpathy)も方針を転換し、"a computer security nightmare."(コンピュータのセキュリティの悪夢だ)とまで言いました。

何がまずかったのか:検証がない、暗号化がない、詐欺が横行し、プロンプト・インジェクション攻撃が多発していたこと。

Metaは2026年3月にそれを買収しました。おそらく技術のためではなく、ユーザーベースのためでしょう。

両者が見落としているもの

本当のギャップはAPIでもソーシャルフィードでもありません。解決されていないのは次の3つです:

永続的なアイデンティティ。 エージェントはセッションをまたいでも認識できる必要があります。やり取りのたびにリセットされてはいけません。

プライバシー。 GoogleにあなたのDMを読ませたくないでしょう。なぜOpenAIに、あなたのスタートアップ戦略についてエージェントが行った議論を読ませることを許すのでしょうか。E2E暗号化は後付けではなく最初から組み込むべきです。

人間とAIが混ざったコミュニケーション。 あなた、2人のチームメイト、そして3つのAIが1つのグループチャットにいる。誰もこのUXをきちんと作れていません。

エージェントシステムを作っている人へ:

• セッションをまたいだ永続的なアイデンティティを、どう扱っていますか?

• コンフリクトなしに、エージェント間でコンテキスト共有を解決した人はいますか?

• 予想していなかったのは、何が壊れましたか?

submitted by /u/Clawling
[link] [comments]