Azure中心で設計するLLMガードレール実践:入力・出力をどこで判定し、どこで止めるか
Zenn / 4/20/2026
💬 OpinionDeveloper Stack & InfrastructureTools & Practical Usage
Key Points
- Azure中心の設計で、LLMガードレールを「入力」と「出力」に分け、どの段階で判定(検知)しどこで止める(ブロック/再実行)かを整理する実践ガイドになっている。
- 入力側はプロンプト注入や不適切な要求を早期に検知して、危険なケースを生成前に遮断することで被害拡大を防ぐ方針が示される。
- 出力側は、生成結果がポリシー違反や情報漏えい等に該当する可能性を評価し、合格時のみ下流へ渡すことで安全性を担保する。
- 判定・停止の責務分担を明確にすることで、運用(ログ/監査、チューニング、例外処理)をしやすくし、継続改善につなげる考え方が述べられている。
Azure OpenAI / Microsoft Foundry / APIM を使ったアプリで悩むのは、モデル選定よりむしろこちらです。
入力をどこで弾くか
出力をどこで止めるか
ブロックだけでなく、書き換えや人間レビューをどう分けるか
2026-04 時点の Microsoft Learn、OpenAI Moderation、Anthropic の公開情報を追うと、結論はかなり明確でした。
1つの製品に全部任せる前提を捨て、
Azure OpenAI / Foundry のネイティブフィルタ、
Azure AI Content Safety、
APIM AI Gateway の...
Continue reading this article on the original site.
Read original →


