AIの「わからない」には三種類ある
Zenn / 2026/3/16
💬 オピニオンSignals & Early TrendsIdeas & Deep Analysis
要点
- 技術的な限界と未知の能力の予測困難さを指摘し、実際の能力が期待とずれるケースがある。
- 安全性・倫理・ガバナンスの不確実性が高く、出力の信頼性や悪用リスクの評価が難しい点を強調する。
- データ品質と適用文脈の依存性により、同じモデルでも成果が大きく変動する点を説明する。
AIを使っていると、期待した出力が返ってこない場面がある。
多くの人はそれを「AIが間違えた」と一括りにするが、壊れ方には種類がある。
種類を区別しないと、対処が的外れになる。
三種類の「わからない」
I don't know
知識がないと明示する反応。ドメイン知識や局所的なルールが渡されていない場合に起きる。検知しやすい。出力が止まるか、「情報が不足しています」という形で返ってくる。
対処:不足しているドメイン知識を文脈に投入する。
I don't get it
理解が成立していない反応。入力は受け取っているが、意図と噛み合わない出力が返ってくる。「答えているが、聞いている...
この記事の続きは原文サイトでお読みいただけます。
原文を読む →


