LangChainの全APIコールを1行で自動記録する — llm-devproxy v0.4

Zenn / 2026/3/26

💬 オピニオンDeveloper Stack & InfrastructureTools & Practical Usage

要点

  • llm-devproxy v0.4により、LangChainの全APIコールを自動で記録できる仕組みを1行で導入できる点が主眼です。
  • 手作業のログ取得や計測に比べて、実行トレースやデバッグに必要なデータ収集の手間を大幅に削減できます。
  • 「全APIコール」を対象にするため、開発中のチェーン/ツール連携の実挙動を俯瞰しやすくなります。
  • 記録されたログは、品質改善・コスト/レイテンシ分析・不具合調査などの運用改善に活用しやすい構成です。
LangChainのAPIコール、把握できていますか? LangChainでAgentやRAGパイプラインを組んでいると、内部で何回APIが呼ばれたか、各コールにいくらかかったかが分かりにくくなります。 Agent1回の実行で、裏側ではこんなことが起きていたりします: Agent.invoke("売上データを分析して") → LLM呼び出し #1: タスク分解 (gpt-4o, $0.003) → Tool: SQLクエリ生成 → LLM呼び出し #2: SQL修正 (gpt-4o, $0.005) → Tool: SQL実行 → LLM呼び出し #3: 結果要約...

この記事の続きは原文サイトでお読みいただけます。

原文を読む →