AIのハルシネーションはよく報告されています。 そして、それらは人々がこれらのシステムを信頼したり導入したりするのをためらう最大の理由の1つでもあります。
そのためらいは、もっともです。
でも私は、あまり議論されないあることを考えていました:
もしAIのハルシネーションが、ただの奇妙な機械の故障ではないとしたら?
もしそれが、実は人間がすでに持っている考え方の反映だとしたら?
技術的な観点では、ハルシネーションが起きるのはAIがギャップを埋めるからです。
「知っている」わけではないとき、予測します。
過去に見たパターンに基づいて、最ももっともらしい次の情報を生成します。
うまくいくこともあります。
うまくいかず、まったく間違ったものを…しかも絶対的な自信をもって提示することもあります。
ここで少し引いて見てみましょう。
人間も、…不快なくらい似たことをしています。
私たちもギャップを埋めます。
- 私たちが思うような形とは少し違っていた出来事を、思い出します
- ほんの一部しか理解していない事柄を、自信をもって説明します
- それが本当でなくても、本当に思える物語を作り上げます
心理学には、この一部に対する名前があります:確証バイアス
私たちは、すでに自分が信じていることを裏づける情報に気づき、それを好み、さらに強化する傾向があります。
だまそうとしているからではありません。効率的だからです。
それに、もっと深いところでも起きていることがあります。
AIは、人間が作ったデータを大規模に学習します。
査読付き研究からブログ記事、意見、半分本当のこと、そして完全にナンセンスなものまで、あらゆるものが含まれています。
| AI | 人間 |
|---|---|
| 最も可能性の高い答えを予測する | 最も馴染みのある信念に傾く |
| もっともらしい出力でギャップを埋める | 仮定や記憶でギャップを埋める |
| 間違っていても自信ありげに聞こえる | 間違っていても自信ありげに聞こえる |
| インターネット規模のデータで学習される | 経験+文化で学習される |
AIは「真実」と「自信」を切り分けません。表現のパターンを学習します。
だからハルシネーションが起きるとき、それはどこかで突然、振る舞いをでっち上げているわけではありません。私たちから学んだパターンをリミックスしているだけです。私たちの矛盾も含めて。私たちの過剰な自信も含めて。正しくなる前に「それっぽく聞こえる」傾向も含めて。
ハルシネーションは避けられない、と主張する研究者もいます。というのも、そのシステムは「わからない」と言うことではなく「答える」よう最適化されているからです。
それは、また…どこか見覚えがあります。
なので、より良い問いは「どうすればAIのハルシネーションをなくせるか?」ではないのかもしれません。
代わりに:「なぜ私たちはそれらにそんなに驚くのか?」
少なくとも、AIは何かをあえて表に引きずり出しているようです:
自信に満ち、筋の通ったように聞こえる情報は、決して真実そのものと同じだったことはありません。
私たちは、ただ、その錯覚が機械ではなく人間から生まれたときのほうが、より安心できただけです。
みんながこの点をどう受け止めているのか気になります?
AIのハルシネーションは、やがて解決する技術的な欠陥なのでしょうか…
それとも、私たちが完全には見ようと準備できていない鏡なのでしょうか?
[link] [comments]