OpenAIが「Workspace Agents(ワークスペース・エージェント)」と命名。6か月前にリリースしたLark版をオープンソースした件

Dev.to / 2026/4/23

💬 オピニオンSignals & Early TrendsIndustry & Market MovesModels & Research

要点

  • OpenAIは2026年4月22日に「Workspace Agents(ワークスペース・エージェント)」を発表し、SlackやChatGPT上で動作する共有型・クラウド常駐のAIエージェントとして、チームが日常的に行う業務を代行すると説明しています。
  • Workspace AgentsはCodex搭載を特徴とし、クラウドで動作し続けることに加えて、スケジューリングや承認フローにも対応し、5月6日までは無料提供ののちクレジット課金へ移行するとされています。
  • 記事は、最も重要なのは機能そのものではなく「配置の原則」だと主張し、エージェントはユーザーの既存ワークフローから切り離すのではなく、チームの協業基盤(チャット/IM)側に統合されるべきだと強調しています。
  • 著者は、Workspace Agentsが以前オープンソースしたLark/Feishuのボット「Marvin」と形が似ている一方で、MITライセンス、Ofoxゲートウェイによるモデル非依存設計、MCPによる拡張性、ユーザー側ハードウェア上での運用といった点が違いだと述べています。
  • さらに、過去2年でAIが「チャットUI」から「業務ワークフロー内に組み込まれたエージェント」へ移行しており、ターミナル、IDE、課題管理、そしてチーム向けメッセージングへと埋め込み先が広がっているという業界動向も文脈として示されています。

ヒーロー画像:OpenAIのWorkspace Agents発表(2026年4月22日)より。

TL;DR — OpenAIは4月22日にWorkspace Agentsを出荷しました。SlackとChatGPTに住み、チームがすでにやっている仕事を代わりにこなすために作られた、共有可能でクラウド常駐のAIエージェントです。形としては、6か月前にオープンソース化したLark/FeishuのボットであるMarvinと同じですが、MITライセンスで、Ofoxゲートウェイ経由のモデル非依存、MCPで拡張可能、そして自分のハードウェア上で動きます。以下に、Workspace Agentsが確認したことと、オープンソース版が重要な理由をまとめます。

30秒のLark会話

「先週いちばんコンバージョンに貢献したブログ記事はどれ?」

チームメイトがLarkのグループチャットでこれを聞きました。すると1分もしないうちにボットのカードが表示され、支払いコンバージョン上位5件が順位付けされ、異常(アノマリー)がフラグされ、最後に一言添えられました。「これは次点の3倍。追いかけの記事にする価値ありそう。」

これを手作業でやると、GA4を開き、レポートのテンプレートを選び、ディメンションを追加し、フィルターを設定し、CSVを書き出してスプレッドシートに貼り付けて比較します。最低でも10分。Marvin(社内のLarkボット)は、質問を打ち込んだのと同じくらいの時間でそれをやってくれました。

これは新しい手法ではありません。エージェントを実際に仕事が起きている場所に置く、つまり人々にエージェントのUIまで歩かせるのではなく、すでにチームがいるチャットの中に置く、ということです。

OpenAIがこれをプロダクトカテゴリにした

昨日(2026年4月22日)、OpenAIはWorkspace Agentsを発表しました。構成はこうです:

  • Codex搭載。「すでにやっている仕事」向け――レポートの準備、コードの作成、メッセージへの返信
  • クラウドで動作――オフラインでも動き続けます
  • 組織全体で共有――1回作れば、ChatGPTやSlackを通じてチームが再利用できます
  • スケジューリング+承認フロー
  • 5月6日までは無料、その後はクレジットベースの価格
  • GPTsの進化」として位置付け

立ち上げの中で最も目を引くのは、機能そのものではなく、繰り返し強調される「エージェントは、チームがすでに働いているシステムに来るべきであって、逆ではない」という枠組みです。

業界はしばらく前からこれに収束している

ここ2年でAIは「チャットUI」から「ワークフロー内のエージェント」へ移ってきました:

  • Claude Codeが、エージェントをあなたのターミナルに入れた
  • Cursor / Windsurf / Zedが、エージェントをあなたのIDEに入れた
  • LinearのAsk Agentが、エージェントをあなたの課題トラッカーに入れた
  • Workspace Agentsが、今度はあなたのチームのIMに入れた

結論は明確です。誰もが、AIを使うために自分の作業場所から離れる必要はない。AIの正しい場所は、あなたがすでにいる場所のどこかです。

多くのチームにとって、その場所はLark/Feishuです。そこには、本当のコラボレーション、本当の意思決定、本当のフィードバックがあります。エージェントがそこに到達できないなら、そもそも存在する意味が薄いでしょう。

オープンソースのリファレンス実装:Marvin

私たちは6か月前にMarvinをオープンソース化しました。これは、Claude Code CLIを土台にしたTypeScriptのLark/Feishuボット用フレームワークです。名前は『銀河ヒッチハイク・ガイド』に出てくる、憂うつだけど驚くほど頼もしい(そして怖い)ロボットにちなんでいます。

Workspace Agentsに対して、機能ごとに照合すると:

Workspace Agentsの約束 Marvinの実装
常時稼働 ディスクに永続化されたセッション。再起動時に中断したタスクを自動再開
チームのIMで共有 Lark/Feishuのグループで進捗カードをライブ表示、 ⬜ → → ✅
スケジュール+イベントトリガー 組み込みのcron+WebSocketイベントリスナー
承認を求める 管理者がメッセージでタスクの途中を中断可能。Claudeは完全な文脈で再開
組織権限/安全性 出力フィルターでAPIキー、トークン、内部ID、内部IPを除去

アーキテクチャは、あなたが想像するより小さくて済みます。LarkのWebSocketを受ける → Claude Code CLI → リアルタイム進捗カードのレンダラを出力する。完全な図はREADMEにあります。

Marvinが私たちのために実際にやること

1. Larkからタスクを受け取り、プロダクションへ出す。

誰かがチャットで課題のコピーを投げる、または「これをやって」と@メンションでMarvinに頼みます。Marvinはリポジトリをgrepしてコードを探し、機能ブランチを開き、PRをプッシュし、CIを待ってdevへマージし、次に2本目のPRをmasterへ開いてマージし、そのデプロイを確認して、チャットに結果を報告し、タスクをクローズします。人間の入力は1文だけです。

2. GA4の問いに1分未満で答える。

最初に紹介した逸話。MarvinはMCPサーバー経由でGA4に問い合わせ、ディメンションを突き合わせ、異常をフラグし、構造化された要約を返します。人間が10分かけてやることを、30〜60秒で完了。

ここで過小評価されているのはスピードではありません。データに関する質問を投げるコストがゼロに落ちることです。以前は「GA4を開く価値ある?」と考えて、たいていはスキップしていました。でも今は、ただ聞けばいい。質問の量は増え、意思決定はよりエビデンスに基づくものになります。

3. 他のものを何でも差し込める。

Marvinの対応領域は、接続するMCPサーバーの集合と同じです。調査用のFirecrawl、会計用のfreee、ドキュメント用のContext7、そしてあなた自身の社内サービス。今日MCPサーバーを追加すれば、Marvinは明日それを使います。これが本当の上限です。

選択肢の違いは4つ

横並びのパラメータ表は本質ではありません。違いは哲学にあります:

ディメンション OpenAI Workspace Agents Marvin
エージェント ↔ モデル Codexに固定 Ofoxゲートウェイ経由でプラグイン可能――いつでもモデルを差し替え可能
データ境界 OpenAIのクラウド上で動作 あなたのマシン/あなたのサーバー上で動作
IMの疎結合 主にSlack(およびChatGPT) lark.tsはアダプタ――コアに触れずにSlack/Discordを差し替えられる
ツール・エコシステム Codex+OpenAIのプリセット統合 任意のMCPサーバー
改変可能性 クローズドなSaaS ペルソナ、ルール、パイプラインはすべてリポジトリ内のファイル

多くのチームにとって、決定打になるのはデータ境界改変可能性です。チームチャット、あなたのリポジトリ、GA4のプロパティ、会計――それらは中核となる組織情報であり、他社のクラウドに流したくないはずです。

Marvinはあなた自身のハードウェア上で動きます。私たちの場合、Mac miniをオフィスに置いてlaunchdで管理し、外部のクラウドサービスは一切使っていません。

動かし方

リポジトリ:github.com/ofoxai/lark-claude-bot

Claude Codeをインストールしているなら、これを貼り付けてください。セットアップを案内してくれます:

私のために https://github.com/ofoxai/lark-claude-bot をクローンして設定してください:
1. リポジトリをクローンしてそこに移動(cd)する
2. npm install を実行する
3. .env.example を .env にコピーする
4. Lark の App ID、App Secret、Encrypt Key を私に聞いて、それらを入力する
5. もしまだ Lark アプリを持っていないなら、open.larksuite.com または open.feishu.cn で作成する手順を私に案内する
6. 設定ができたら、npm run dev を実行してボットを起動する

数分後、あなたのチームチャットに Marvin が現れます。

まとめ

OpenAI は「ワークスペース・エージェント」をプロダクトカテゴリとして打ち出しました。これは良いことです。より多くのチームがこの形を真剣に受け止めるようになるでしょう。しかし、エージェントの未来は「1つのSaaSベンダー、1つのモデル、あなたのために選ばれた1つのIM」というものではあるべきではありません。

Marvin はその反対の一つの実装例です。つまり、オープンで、モデル非依存で、MCPに拡張可能で、ローカルホスト型。さらに、これは Ofox gateway の思想をワークフロー側に落とし込んだものでもあります — すべてのモデルに対して1つのAPI、すべてのIMに対して1つのボットの形

コードはこちら:github.com/ofoxai/lark-claude-bot

もともとは ofox.ai/blog に掲載されました。