| DeepEvalやローカルランナーのような評価ツールと併用してLangfuseを使用している場合は、使用ダッシュボードを確認してください。送るつもりのなかった数千のトレースに対して請求されている可能性があります。 発生していること: 明示的に指示したものだけを追跡する代わりに、彼らのSDK グローバルな TracerProvider にアタッチします。 デフォルトでは、gen_ai.* 属性を持つスパンや既知のLLMスコープを持つスパンを、同じプロセス内で動作している全く関係のないツールからでも貪欲に傍受してアップロードします。 Langfuseは使用量ベースの料金(トレース/観測ごと)を採用しているため、この『すべてをキャプチャする』デフォルトはサードパーティのバックグラウンドデータで請求額を黙って膨らませます。これは新しい V4 SDKで顕著ですが、古い構成にもバックエンドのアップデートが原因で同様の挙動が起きています。 私はLangfuse V3.12を使用しており、2日前から関連のないDeepEvalデータを見かけ始めました: 対策: スパンプロセッサを明示的にロックダウンして、Langfuse SDKの呼び出しのみ受け付けるようにします。 これにより、Langfuse自体が作成したスパンのみを受け付けるようにロックされます。DeepEval由来のものも、他のライブラリ由来のものもありません。元々このデフォルトは搭載されるべきだったと実質的には言えます。 TL;DR: LangfuseのデフォルトOTEL設定は、生成したツールに関係なくスタック内のすべてのLLMトレースをアップロードします。出血を止めるには should_export_span フィルターをロックダウンしてください。 [リンク] [コメント] |
PSA: Langfuseのトレースを確認してください。デフォルトで他のツールのトレースを傍受し、それらに対して課金されます。
Reddit r/LocalLLaMA / 2026/3/13
💬 オピニオンDeveloper Stack & InfrastructureTools & Practical Usage
要点
- LangfuseのV4 SDKはデフォルトでグローバルな TracerProvider にアタッチされ、関係のないツールからのスパンを傍受・アップロードする可能性があり、請求額が膨らむ可能性があります。
- この挙動により、DeepEval やローカルランナーなど、送るつもりのなかった数千のトレースに対して課金される場合があります。
- 推奨される修正は、should_export_span フィルターを使用してスパンプロセッサを明示的にロックダウンし、Langfuseが生成したスパンのみを受け付けることです。
- 投稿にはフィルターを実装するコードスニペットがあり、デフォルト OTEL 設定が根本原因であることを強調しています。使用ダッシュボードを確認する TL;DR 要約もあります。