LangChainの全APIコールを1行で自動記録する — llm-devproxy v0.4
Zenn / 2026/3/26
💬 オピニオンDeveloper Stack & InfrastructureTools & Practical Usage
要点
- llm-devproxy v0.4により、LangChainの全APIコールを自動で記録できる仕組みを1行で導入できる点が主眼です。
- 手作業のログ取得や計測に比べて、実行トレースやデバッグに必要なデータ収集の手間を大幅に削減できます。
- 「全APIコール」を対象にするため、開発中のチェーン/ツール連携の実挙動を俯瞰しやすくなります。
- 記録されたログは、品質改善・コスト/レイテンシ分析・不具合調査などの運用改善に活用しやすい構成です。
LangChainのAPIコール、把握できていますか?
LangChainでAgentやRAGパイプラインを組んでいると、内部で何回APIが呼ばれたか、各コールにいくらかかったかが分かりにくくなります。
Agent1回の実行で、裏側ではこんなことが起きていたりします:
Agent.invoke("売上データを分析して")
→ LLM呼び出し #1: タスク分解 (gpt-4o, $0.003)
→ Tool: SQLクエリ生成
→ LLM呼び出し #2: SQL修正 (gpt-4o, $0.005)
→ Tool: SQL実行
→ LLM呼び出し #3: 結果要約...
この記事の続きは原文サイトでお読みいただけます。
原文を読む →