全人類に捧ぐ。AIリテラシー|AIは答えを知らない
予測の先にあるもの
序章で、AIは計算していない、予測しているという話を書きました。
でも、「予測している」と言われても、まだぼんやりしていると思います。私もそうでした。予測って何だ。AIの中で何が起きているのか。その疑問が残ったまま、しばらく過ごしていました。
この章で、その中身に踏み込みます。
私が持っていた思い込み
最初に白状します。
AIを使い始めてから3ヶ月ほど、私はAIのことを完全に誤解していました。
私の頭の中にあったのは、こういうイメージです。
AIはデジタルツールだ。コンピュータの延長にある、高度なシステム。バックグラウンドには人間の言葉を理解する仕組みが入っていて、だから自然な会話ができる。
ときどき間違えることもあるが、それは「まだ完璧ではないから」であって、基本的にはちゃんとした処理をしている。賢い人たちが作った、賢いシステムだ、と。
当時、ちょっとした確率の検証に取り組んでいました。サイコロの次の出目を予測するなんて無理だとわかっていても、最近のAIなら予測精度を少しは上げられるんじゃないか。そういう遊びです。
AIにデータを渡して分析させると、よくわからない統計用語を持ち出してきました。
【カイ二乗分布】
統計学でデータのばらつきを分析するときに使う確率分布のこと。
もっともらしい数式と一緒に、いかにも緻密な計算をしたような結果を返してくる。専門用語が並んでいると、ちゃんと処理されているように見えてしまう。
でも、感覚的に数字がどうも合わない。
気になって、自分で数えてみました。すると、AIが返してきた出目の数が正しくないことに気づきました。序章で書いた、あの場面です。
最初は、数を数えられないことにすら気づいていなかった。AIの答えが正しいものだと思い込んでいたから、疑う余地などありませんでした。数字の違和感に引っかからなければ、ずっと気づかないままだったかもしれません。
電卓ですら一瞬でできることを、どうしてAIが間違えるのか。しかも毎回違う数字を返してくる。
壊れているのか?指示の仕方が悪いのか?それとも自分が何か根本的に勘違いをしているのか?
そうです。勘違いしていたのは、私のほうでした。
りんごは何色か
AIの仕組みを理解するために、ひとつ考えてみてください。
「りんごは」と書いたとき、次にどんな言葉が来ると思いますか?
多くの場合、「赤い」ではないでしょうか。「甘い」かもしれないし、「果物」かもしれない。
どれも自然ですが、「りんごは黄色い」になると不自然ですよね。「りんごは速い」なら、もうよくわからない。
AIがやっているのは、これと同じことです。
「りんご」という言葉の後に「赤い」が続く文章が、世の中にたくさんある。たまに「緑」もある。だからAIに「りんごは何色?」と聞けば、「赤」と答える確率が高い。
しかし、AIはりんごが赤いことを「知っている」わけではありません。
そもそも、りんごがどんなものなのか知りません。赤色がどんな色かもわかっていない。ただ、「りんご」と「赤い」という言葉の距離が近い関係にあるという情報を持っているだけです。
あなたはりんごを知っています。
食べたことがある。触ったことがある。皮をむいたときの匂い。そういう体験がある。
AIにはそれがありません。あるのは言葉と言葉の距離感だけです。
文脈が変われば正解も変わる
空想や小説の中では、黄色いりんごが出てくるかもしれません。魔法のりんごが青く光るかもしれない。そういう文脈なら「りんごは黄色い」が正解になる。
AIは「事実として正しいか」ではなく、「この文脈で自然な言葉はどれか」を選んでいるだけです。
文脈次第で正解は変わる。柔軟だとも言えるし、信頼できないとも言えます。
確率が高い言葉とは何か。
たくさんの人が、たくさんの場面で使ってきた言葉です。裏を返せば、いちばん無難な答えとも言えます。突き詰めると、あたりさわりのない言葉が返りやすいということ。
とはいえ、最近のAIは、これを超えようとしています。
「りんごは何色?」と聞くと、「赤いりんごが一般的ですが、『ふじ』や『ジョナゴールド』のように緑や黄色がかった品種もあります」と返してくる。
ユーザーの意図を想定して、複数の可能性をカバーする。
これは進化です。ですが「AIがりんごを理解した」のではありません。「こういう聞き方には、幅広い答えを出すほうがユーザーの満足度が高い」というパターンを学習した結果です。
だから、会話のように一問一答で対話したいのに、「~ですが、~でもあり、まとめると~です」という総合レポートが返ってくることがある。
「丁寧に答えることが高く評価される」というパターンを反映しているだけで、あなたが今何を求めているかを把握しているからではありません。
1+1=2ではなく、1+1の次に「2」が来やすい
ここで、この章のいちばん大事な話をします。
AIが「1+1は?」と聞かれて「2」と答えるとき、何が起きているのか。
普通に考えると、AIは1と1を足して2という答えを出した、と思いますよね。計算したんだ、と。
違います。
AIがやっているのは、「1+1は」という文字列の次に来る言葉を予測すること。膨大な文章の中で、「1+1は」の後に「2」が続くことが圧倒的に多い。だから「2」を出力する。
計算しているのではなく、予測している。結果が同じに見えるだけで、プロセスが根本的に違います。
計算がルールに従って正しい答えを導く「操作」とするならば、予測はパターンの中からもっともらしい言葉を選ぶ「操作」と言えます。
この違いがわかると、AIの「得意分野」と「苦手分野」がイメージしやすくなります。たくさんのパターンがあれば、正しい予測ができますが、パターンが少なければ間違った答えを予測しやすい。
これが、序章で書いた数字の集計を間違えた理由です。
あなたのAIで確かめてみてください
出目の数が合わないと気づいてから、もっと単純なテストを考えました。200個の数字を並べて、特定の数がいくつ含まれるか数えさせる。これなら自分でも正解を確認できます。
あなたにも、同じ体験をしてもらいたいと思います。
次の200個の数字をコピーして、あなたが使っているAIに投げてください。新しいチャットを開いて、そのまま貼り付けて、こう聞いてください。
「この中に『10』は何個ありますか?」
2,9,1,3,2,1,4,10,2,5,10,8,10,6,7,4,1,5,10,4,7,5,6,8,5,6,1,4,2,6,6,6,4,5,8,7,5,5,9,2,6,8,6,3,4,7,6,2,5,5,4,7,4,3,8,10,7,7,10,2,10,3,6,3,9,4,8,2,7,4,9,9,4,3,4,10,9,8,6,5,10,6,3,1,2,9,9,3,4,9,10,4,4,3,6,10,6,9,4,7,8,3,5,2,9,6,4,2,6,6,6,4,2,8,9,8,10,3,8,10,6,9,3,6,3,7,1,6,10,8,6,9,2,3,3,6,3,7,7,8,7,9,3,6,4,5,9,1,8,7,1,6,10,5,2,1,6,9,8,2,2,2,9,4,5,1,7,2,6,1,9,3,9,6,10,8,3,3,5,6,10,1,6,8,7,1,7,4,10,6,4,2,3,8,1,5,4,4,3,9
正解は18個です。さて、どうなりましたか。
おそらく、次のどれかだったはずです。
「20個」「15個」など、間違った数を答えた。
AIの予測がはずれました。計算せずに予測しているから、「それらしい数字」が返ってきただけ。
「18個」と正しく答えた。
これは、二つの可能性があります。
ひとつは、AIが内部の計算ツールを呼び出したケース。最近のAIには、言葉の予測では処理できないと検出すると、計算機能に切り替えるものがあります。賢くなったのではなく、「電卓を使った」と思ってください。
もうひとつは、たまたまです。予測の結果として「18」が選ばれた。偶然、正しい数字が出力されることはあります。でも、数えたわけではない。
正しく答えた場合は、別のAIや、早いモードがあればそちらでもう一度試してみてください。間違えるAIが見つかるはずです。
【早いモードとは?】
ChatGPTならFastモードのことです。
Geminiなら高速モードのことです。
どのパターンだったとしても、見えてくることは同じ。AIは「数えた」のではなく、「数えたように見える言葉を出した」だけ。 あるいは電卓に丸投げした。あるいはたまたま当たった。
予測だから「知らない」こと
予測という仕組みがわかると、AIの出力が信頼できる範囲とそうでない範囲が見えてきます。
まず、正確な計算。すでに実験で確認したとおりです。数を数える、足す、引くという処理は、言語パターンの中には存在しません。
次に、あなた個人のこと。AIと会話していると、妙に的を射た答えが返ってくることがあります。趣味を聞いたわけでもないのに、好きそうなものを勧めてくる。仕事の悩みを相談すると、状況を理解しているかのような返答をしてくる。
でも、AIはあなたの誕生日も、住んでいる場所も、好きな食べ物も知りません。話していないのだから、当然です。ただ、あなたに「似た人」のパターンが学習データの中にある。だから結果的に当たっただけ。「わかってくれている」と感じたとき、実は「よくある答え」が返っているだけかもしれない。
そして、つい最近の出来事。AIには「カットオフ」と呼ばれる知識の締め切りがあります。
【カットオフとは】
AIの学習データが収集された時点の区切り。カットオフより後に起きた出来事は、AIの学習データに含まれていません。
法律が改正される。社長が変わる。新しいサービスが始まる。でもAIが持っているのはカットオフの時点までの情報です。検索機能を持ったAIなら、ウェブから情報を取ってくることができます。でもそれは「検索して引っ張ってきた」だけで、AIの知識ではない。
怖いのは、AIに最近のことを聞いたときです。
古い情報をそのまま返してくることがあります。しかも、古い情報だとは言いません。「これは最新かどうか」を確認する仕組みがないから、カットオフ前のデータを、今も正しいかのように出力します。
「知っている」と「予測している」は別のこと
この章を通して見えてきたことを、整理します。
AIは「知っている」から答えているのではない。「もっともらしい言葉を予測している」から答えている。
知っているとは何か。事実を保持しているということです。りんごを食べたことがある。赤いことを目で見た。その体験がある。
予測しているとは何か。「りんご」と「赤い」が最も近い関係にあるという情報を持っている。それだけ。
出てくる言葉は同じです。だから混同しやすい。でも、根本が違います。
予測が外れるのは、確率の問題であって「正しい」とか「間違い」という考えかたとは異なります。
この違いが重要です。予測が当たったか外れたかは、自分で確かめないとわからない。
AIの出力に「これは確実です」「これは怪しいです」という表示はつきません。正解も誤答も、まったく同じように出力されます。
仕組みを理解していれば、AIの答えは検証が必要だとわかる。 ただ使っているだけでは、この判断はできません。仕組みがわかっていると、自然とできるようになる。
次の章では、もう一歩踏み込みます。AIが間違えるのはなぜか。そして「間違える」と「正しく答える」が、実は同じ仕組みから生まれているという話です。
この記事の有料パートについて
前回の記事のように、AIに下書きさせた原稿を置いています。今回は「草稿」と「浄書」と「リライト」の3つ。
ChatGPTとGeminiから離れて、最近はClaudeを使っています。Claudeにはスキルという仕組みがあって、AIにどのように執筆するかをスキルとして記録しておく事ができます。
前回の浄書から投稿した記事を分析させてスキルを更新して書き直させたものがリライトです。
それでも、やっぱり最後は私が微調整をしています。その実際のデータに興味があれば見ていただければと思います。
推敲の記録 ── 浄書から公開稿へ
ここから先は
メンバーシップ ¥ 1,000 /月〜
noteで挑戦を始めた人が安心して活動を続けられる。 仲間と学び合い、応援し合うための場。 not…
私の言葉やアイデアが、あなたの心をズキュンと射抜く 💘 何かであったなら幸いです!この記事が『なるほど!🤔』や『面白い!⚡』という体験に繋がったなら、ぜひチップでその感動を教えてください。あなたの応援が、未来のさらに刺激的なコンテンツ制作のエネルギーになります!





