Azure中心で設計するLLMガードレール実践:入力・出力をどこで判定し、どこで止めるか

Zenn / 4/20/2026

💬 OpinionDeveloper Stack & InfrastructureTools & Practical Usage

Key Points

  • Azure中心の設計で、LLMガードレールを「入力」と「出力」に分け、どの段階で判定(検知)しどこで止める(ブロック/再実行)かを整理する実践ガイドになっている。
  • 入力側はプロンプト注入や不適切な要求を早期に検知して、危険なケースを生成前に遮断することで被害拡大を防ぐ方針が示される。
  • 出力側は、生成結果がポリシー違反や情報漏えい等に該当する可能性を評価し、合格時のみ下流へ渡すことで安全性を担保する。
  • 判定・停止の責務分担を明確にすることで、運用(ログ/監査、チューニング、例外処理)をしやすくし、継続改善につなげる考え方が述べられている。
Azure OpenAI / Microsoft Foundry / APIM を使ったアプリで悩むのは、モデル選定よりむしろこちらです。 入力をどこで弾くか 出力をどこで止めるか ブロックだけでなく、書き換えや人間レビューをどう分けるか 2026-04 時点の Microsoft Learn、OpenAI Moderation、Anthropic の公開情報を追うと、結論はかなり明確でした。 1つの製品に全部任せる前提を捨て、 Azure OpenAI / Foundry のネイティブフィルタ、 Azure AI Content Safety、 APIM AI Gateway の...

Continue reading this article on the original site.

Read original →