VLMのOCRはデモが映える。本番で壊れる。
Zenn / 5/2/2026
💬 OpinionIdeas & Deep AnalysisTools & Practical Usage
Key Points
- VLM(Vision-Language Model)のOCRはデモ映えする一方、実運用の現場条件では性能が崩れやすいという問題意識を提示している
- デモでは通るパターンと、本番で失敗するパターン(撮影条件・レイアウト・品質など)のギャップが大きい点が焦点
- 「VLMでOCRをやれば万能」という期待に対し、導入時点での現実的な評価・検証の重要性を強調している
- “壊れる”原因を単なる精度不足ではなく、入力分布の違いに起因する再現性の欠如として捉える観点が示されている
はじめに
VLM(Vision Language Model)でOCRを作ると、最初のデモはだいたい感動します。
画像を投げたら「store_name: スーパーABC、total: ¥1,580」みたいなJSONが返ってくる。
でも本番に持ち込むと壊れます。
原因のほとんどは座標の幻覚でした。
VLMに座標を出させると何が起きるか
GeminiやGPT-4oに「フィールドの座標も一緒に返して」とお願いすると、
それっぽい数値は返ってきます。でもその座標、実際の画像上の位置とずれていることがかなりあります。
{
"store_name": "スーパー ABC",
"ve...
Continue reading this article on the original site.
Read original →Related Articles

Black Hat USA
AI Business

Every handle invocation on BizNode gets a WFID — a universal transaction reference for accountability. Full audit trail,...
Dev.to

I tracked my referral sources for 30 days. AI chatbots are beating Google.
Dev.to

TestSprite: Review Mendalam dari Developer Indonesia — Lokalisasi, Tanggal, dan Mata Uang Rupiah
Dev.to

When AI Agents Trade Autonomously: Building Economic Actors That Never Sleep
Dev.to