数か月前、私は Claude を多くの人と同じように使っていました:都度のプロンプト、コピー&ペーストの結果、繰り返し。個々のタスクには問題なく機能しましたが、記憶、継続性、そして複利的な価値はありませんでした。毎回のセッションは最初から始まりました。
それは、現在私が「マルチエージェント・コンテンツ自動化システム」と呼ぶものを作り始めたときに変わりました。これが私の全体的なコンテンツ運用を実行します:SEO記事、Reddit/forumのエンゲージメント、キーワードリサーチ、画像生成、WordPress公開、リード獲得。全体はほとんど自動で動作し、私が出力を承認し、方向性を指示します。
この記事は、アーキテクチャ、主要な設計上の決定、そして実際の技術スタックと実費を扱います。
The Core Problem With One-Off AI Prompts
一度だけのプロンプトを使ってLLMを利用すると、前の作業からの文脈がなく、既存のシステムへの認識もなく、テキストを生成する以外の行動をとる能力もありません。
私にとって転機となったのは、Claude をチャットボットとしてではなく、構造化されたワークフローを実行する ランタイム として扱う考え方でした。
私が採用したアーキテクチャには3層があります:
- Skills - 再利用可能なワークフローモジュール(コードの関数のようなもの)
- State files - セッション間で文脈を運ぶ永続的なJSON
- Execution scripts - 重い処理を行うPythonスクリプト(API呼び出し、ファイルI/O、ブラウザ自動化)
Skills as Workflow Modules
私のシステムにおける「スキル」は、AIエージェントに特定の多段階タスクを実行する方法を指示する YAML フロントマターを持つマークダウンファイルです。機能定義のようなものと考えてください。
スキル定義がどのような形になるかの簡略化した例は次のとおりです:
---
name: rr-article-writer
description: Write SEO-optimised articles for the content site
---
ファイルの本文には、ステップバイステップの指示、意思決定ルール、出力形式、外部スクリプトへの参照が含まれます。スキルを呼び出すと、エージェントはそれらの指示を読み取り、現在のセッションの文脈を完全に把握した状態で実行します。
これにより、reddit-growth のようなスキルを持つことが可能になります。たとえば:アカウントのウォームアップ状態をチェックし、過去30日以内に投稿されたスレッドを探し、口語的なトーンで価値優先の返信を作成し、アカウントの信頼が確立されるまではアフィリエイトリンクを投稿しません。その全てのロジックはスキルファイルの中にあり、頭の中にはありません。
これまでに作成したスキルは以下をカバーします:
- Content pipeline: ideation, research, writing, auditing, image generation, publishing
- Community growth: Reddit account warmup, subreddit building, multilingual forum outreach
- SEO: Google Search Console + DataForSEO keyword analysis, on-page audits
- Revenue: email capture, lead magnet delivery, affiliate link management
- Utilities: cold email campaigns, market research, invoice extraction
State Files Keep Everything in Sync
これがこの種のものを作ろうとするときに、多くの人が見落とす部分です。
各エージェントは JSON ファイルで状態を保持します。私の設定からのいくつかの例:
// agents/schedule.json - task cadences
{
"tasks": [
{
"name": "Reddit Engagement",
"skill": "reddit-growth",
"cadence_days": 1,
"last_run": "2026-03-18"
},
{
"name": "RoboRhythms Article",
"skill": "reddit-article-pipeline",
"cadence_days": 3,
"last_run": "2026-03-17"
}
]
}
// agents/account_state.json - Reddit warmup tracking
{
"username": "ThatRandomApe",
"warmup_start": "2026-01-20",
"post_count": 47,
"karma": 89,
"phase": "building_trust"
}
At the start of each session, a briefing script reads these files and surfaces what's due today, what's overdue, and what account states look like. I open Claude, see the briefing, and can run the day's tasks with a few commands.
The Content Pipeline End to End
Here's how a full article goes from idea to published:
Step 1: Idea sourcing
The reddit-article-pipeline skill scans target subreddits for trending threads, identifies content gaps, and proposes article topics based on search volume data from DataForSEO.
Step 2: Research
The rr-notebooklm-prep skill fetches the top 5 competitor articles for the chosen topic, uploads them to NotebookLM via MCP, and extracts a structured research brief: key facts, content gaps, angle ideas.
Step 3: Writing
The rr-article-writer skill takes the research brief and writes a full article (2500-4000 words) optimised for the target keyword. It follows strict style rules: no em dashes, first-person voice, numbered lists for comparisons, working examples for every major claim.
Step 4: Audit
The rr-auditor skill reviews the draft against a checklist: banned words, missing sections, title length, meta description, internal link opportunities. It fixes what it can automatically.
Step 5: Images
The rr-image-generator skill generates 3 blog images using fal.ai's FLUX.1 model via their REST API. Prompts are visual metaphors only (FLUX.1 cannot render legible text, so never include words in image prompts).
Step 6: Publish
The rr-publisher skill uploads the article to WordPress via REST API, attaches images, sets the author and category, saves as draft, and sends an email with the edit link.
The whole pipeline takes maybe 25 minutes of wall-clock time with 5-10 minutes of my attention.
Community Growth: The Long Game
Content alone doesn't get traffic. You need distribution.
My Reddit growth system uses Firefox browser automation via Playwright MCP to post replies manually (no Reddit API). This is intentional: the API adds friction and rate limits, and browser automation gives me more flexibility for account warmup.
The warmup strategy:
- Phase 1 (weeks 1-4): value-only replies, no links, target threads under 30 days old
- Phase 2 (weeks 5-8): soft mentions of the site by name, still no direct links
- Phase 3 (8+ weeks, 50+ karma): can include affiliate/site links in appropriate context
フォーラム向けには、英語・スペイン語・ポルトガル語・フランス語・ドイツ語・オランダ語のフォーラムをカバーする多言語システムを用意しています。forum-growth スキルには2つのモードがあります。RESEARCH(フォーラムをスキャンし、返信案を作成し、キューを作成)と POSTING(ブラウザ自動化を通じてキューを実行し、PDFレポートを生成)です。
実データを用いたSEO自動化
SEOレイヤは2つのデータソースを使用します:
Google Search Console を用いたカスタムPython MCPサーバー経由。これにより、URLごとおよびクエリごとに実際のインプレッション、クリック数、CTR、位置データが表示されます。
DataForSEO は競合のSERP分析、キーワード難易度、検索ボリューム、およびページ内監査データを提供します。
rr-seo-auditor スキルは両方を横断照合します。GSCデータを取得してクリックを失っているページを特定し、次に DataForSEO を用いて競合他社がそのポジションを上回っているかどうかとその理由を確認します。出力は推定トラフィック影響に基づいて優先順位付けされたアクションプランです。
技術スタックと実際のコスト
システムが実際に動作している環境と月額費用は以下のとおりです。
| ツール | 目的 | コスト |
|---|---|---|
| Claude Pro | コアAI実行環境 | $20/mo |
| fal.ai | 画像生成 | ~$5/mo (使用量ベース) |
| DataForSEO | SERPとキーワードデータ | ~$30/mo (使用量ベース) |
| ElevenLabs | 動画向けTTS | $5/mo (starter) |
| Perplexity | リアルタイムのウェブ検索 | $20/mo |
| WordPress hosting | コンテンツサイト | $15/mo |
| Systeme.io | メールリスト + 自動化 | 無料プラン |
合計: チームが必要になるようなフルコンテンツ、SEO、コミュニティ運用を月額およそ$95で実行します。
その$95のリターンは、記事がランキングされてコンバージョンしたときのアフィリエイト報酬から来ます。好月のマージンは10〜20倍です。
初期に私が犯した間違い
学ぶ価値のあるいくつかの間違い:
ミス1: 状態ファイルがない。 初期バージョンにはセッション間の記憶がありませんでした。すべてのタスクは最初からやり直され、私は常に文脈を繰り返し説明していました。状態ファイルがこれを解決しました。
ミス2: あまりにも一般的なプロンプト。 スキルファイルは具体的であるべきです。「良い記事を書いて」は一般的な出力を生みます。「2500語の比較記事を書き、番号付きの機能表を含み、少なくとも3つの実例、最後に要約ボックスを付ける」 は公開可能なものを生み出します。
ミス3: 監査ステップをスキップ。 以前はライターから直接記事を公開していました。監査者はダッシュの誤用、欠落したセクション、ブランドから外れたトーン、タイトルの長さの問題を毎回検出します。追加の1分は価値があります。
ミス4: 過剰な自動化を早すぎる。 まずは1つのパイプラインを端から端まで動く状態で始めます。コンテンツパイプラインを安定させてからコミュニティ成長を追加します。コミュニティ成長を有効化してからSEO自動化を追加します。すべてを一度に構築しようとすると、何も確実に機能しません。
今後の展望
私が取り組もうとしているいくつかのこと:
- モバイル用のアイデアキャプチャ用WhatsAppボット(ブリッジはすでに構築済み、テスト中)
- YouTubeパイプライン: ElevenLabsのナレーション + Klingの動画生成 + ffmpegによる組み立て
- 市場調査スイートに結びついた自動化されたコールドアウトリーチ
アーキテクチャは、各スキルが独立しているため、拡張性が高くなっています。新しい機能を追加するには、新しいスキルファイルとPythonスクリプトを作成するだけで、何かを再構築する必要はありません。
さらに深掘り
完全なシステムを文書化したい場合には、アーキテクチャ図、スキルテンプレート、状態ファイル構造、完全なプロンプトシステム、セットアップ手順を含む正確なツールを、35ページのガイドにまとめました。
AIエージェント自動化設計 2026 は、ここで説明されている内容を正確に網羅しており、ゼロからシステムを再現するのに十分な詳細を提供します。
アーキテクチャの特定の部分についてコメントで質問にお答えします。

