AIの「わからない」には三種類ある
Zenn / 3/16/2026
💬 OpinionSignals & Early TrendsIdeas & Deep Analysis
Key Points
- 技術的な限界と未知の能力の予測困難さを指摘し、実際の能力が期待とずれるケースがある。
- 安全性・倫理・ガバナンスの不確実性が高く、出力の信頼性や悪用リスクの評価が難しい点を強調する。
- データ品質と適用文脈の依存性により、同じモデルでも成果が大きく変動する点を説明する。
AIを使っていると、期待した出力が返ってこない場面がある。
多くの人はそれを「AIが間違えた」と一括りにするが、壊れ方には種類がある。
種類を区別しないと、対処が的外れになる。
三種類の「わからない」
I don't know
知識がないと明示する反応。ドメイン知識や局所的なルールが渡されていない場合に起きる。検知しやすい。出力が止まるか、「情報が不足しています」という形で返ってくる。
対処:不足しているドメイン知識を文脈に投入する。
I don't get it
理解が成立していない反応。入力は受け取っているが、意図と噛み合わない出力が返ってくる。「答えているが、聞いている...
Continue reading this article on the original site.
Read original →



