AIに対して多くの人が大きく勘違いしていること
こんにちは。
町工場でひとり事業部を運営している40代のおじさんです。
今日は、ChatGPTもClaudeもGeminiも、AIに対して多くの人が大きく勘違いしていることについて書きます。
正直に言うと、自分も最初は全部勘違いしていました。
AIを触り始めて半年、毎日触り続けて、ようやく見えてきた話です。
結論を先に書きます。
AIは、何でもできるわけではありません
AIは、考えていません
AIは、学んでいません
AIは、覚えていません
AIは、感情を持っていません
AIには、「自分」がありません
順番に書いていきます。
勘違い1:AIは何でもできる
これは、いちばん多い勘違いかもしれません。
ニュースで「AIが東大に合格できるレベルに」「AIが医師国家試験を突破」「AIがプロ棋士に勝った」みたいな話を見て、AIは何でも完璧にこなす万能ツール、と思っている方が多いです。
でも、AIにはできないこと、苦手なことがたくさんあります。
たとえば、
最新の情報:AIは過去のある時点で学習が終わっているので、それより新しい出来事は知りません(検索機能を持っているAIもありますが、それは別の仕組みで補っているだけです)
正確な計算:意外に思うかもしれませんが、AIは桁数の多い計算が苦手です。「137×258」みたいな計算でも、平気で間違えます
事実の正確性:AIは「それっぽい答え」を返すのが得意ですが、事実として正しいかどうかを保証する仕組みは持っていません。専門用語で「ハルシネーション(幻覚)」と呼ばれる、もっともらしい嘘を答えてしまう現象があります
身体を使う仕事:機械を操作する、料理を作る、患者さんを診る、運転する。AIには身体がありません。だから、現場で身体を使う仕事は、原理的に代替できません
本当の創造:AIは過去の作品を学習したパターンの組み合わせは得意ですが、ゼロから何かを生み出すことはできません
責任を取ること:これがいちばん大きいです。AIは判断ミスをしても、責任を取りません。最終的に責任を負うのは、いつも人間です
これを比喩で言うと、こうです。
AIは「博識な助手」です。「神様」ではありません。
博識な助手は、調べ物の整理、文章の下書き、アイデア出しの相棒として最強です。
でも、最終判断、責任、現場の実行、独自の創造。
これらは、人間の領域です。
「AIは何でもできる」と思ってAIに丸投げすると、必ず失敗します。
逆に、「AIにはできないことがある」と理解した上で使うと、AIの得意な部分を最大限活かせます。
これが勘違い1の答えです。
そして、なぜAIに「できないこと」が多いのか、その理由が、これから書く5つの勘違いに繋がっていきます。
勘違い2:AIは考えていない
ChatGPTやClaudeに何か質問すると、すごく頭のいい人が答えてくれているように感じます。
でも、AIは**「考えて」答えているわけではありません**。
何をやっているかというと、**「次に来る単語として、いちばん確率が高いものを並べているだけ」**なんです。
たとえば、「日本でいちばん高い山は」と入力すると、AIは「富士山」と返します。
これ、AIが「ええと、日本の山で標高が一番高いのは……」と考えているわけではありません。「
日本でいちばん高い山は」という文字列の後ろには、『富士山』という単語が来る確率がいちばん高い、ということを、過去の膨大な文章から学習で知っているので、それを並べているだけです。
これは比喩で言うと、こんな感じです。
炊飯器が美味しいご飯を炊いてくれます。
でも、炊飯器は米の気持ちを考えていません。
水の量と温度と時間という決まった処理をしているだけで、「お米が今日は機嫌いいかな」とか考えていません。
それでも美味しいご飯が出てくる。
AIも同じです。
思考しているように見えて、実は超巨大な確率計算をしているだけ。
「考えてないのに、なんでこんな賢いの?」と思うかもしれません。
これは、世界中の文章を学習させた結果、確率予測だけで、結果的に賢く見えるレベルに到達しているんです。
でも、本質は変わりません。AIは考えていません。
勘違い3:AIは学習しない
これは特に多い勘違いです。
「ChatGPTにいろんなこと話していると、それを覚えて学習しちゃうから危ない」 「会社の機密情報を入れたら、他の人にも漏れる」
こう思っている方、多いです。
ここはちょっとややこしいので、2つの話に分けて書きます。 混ぜて理解すると、危ない使い方をしてしまうので、どうか分けて読んでください。
① AIの本体は学習しない、という話
AIの本体は、もう学習が終わっています。
今、私たちが使っているChatGPTやClaudeは、過去のある時点までの大量の文章を読み込んで、その時点で「学習が終わった状態」で固定されています。
私たちが日々話しかけても、AIの本体は1ミリも変わりません。
これは比喩で言います。
百科事典を買ったとして、その百科事典に書き込んでも、本屋で売っている百科事典の中身は変わりません。
これが事実です。
② でも、機密情報を入れていいわけではない
ここが一番大事なところです。
「AIは学習しない」=「何でも入れていい」では、絶対にありません。
なぜか。理由はいくつもあります。
入力した内容は、サービス提供会社のサーバーに送信されて、ログとして保存されます
一部のサービスでは、会話内容を将来の学習に使う場合があります(設定で変えられるものが多いです)
万が一、サービス側でセキュリティ事故があれば、内容が漏れる可能性はゼロではありません
そして何より、会社の情報セキュリティポリシーや、個人情報保護法に抵触する場合があります
つまり、お客さんの名前や、社内の機密情報、未公開の数字、個人情報。これらをAIに入れることは、AIが学習するかどうかに関係なく、そもそもダメなんです。
「AIが学習しないから安心して何でも入れていい」ではなく、
「AIが学習するかどうかとは別の話で、機密情報は入れてはいけない」
これが正しい理解です。
ここを混同して、社内の機密データをAIにバンバン入れている方が、世の中にすごく多いです。
気をつけてください。
勘違い4:AIは覚えていない
「先日ChatGPTに、好きな本の話をしたから、今日聞いたら覚えてるよね?」
これも、半分勘違いです。
ChatGPTでもClaudeでも、基本的に会話のウィンドウを閉じたら、内容は忘れます。
正確に言うと、1つの会話の中だけは覚えていますが、別の会話に行くとリセットされます。
これも比喩で。
毎回まっさらなノートに書き始めるようなイメージです。
昨日のノートにどんなに大事なことを書いたとしても、今日新しいノートを開けば、そこは真っ白です。
AIに「昨日話したよね」と言っても、新しいノートを開いている状態なので、伝わらないんです。
ただし、最近のAIには**「メモリ機能」**というものがついています。
ユーザーが「これは覚えておいて」と指示したり、AIが自動的に重要そうな情報を記憶したりする機能です。
これがあると、別の会話でも「あなたは料理が好きで、和食をよく作るんですよね」みたいな情報を踏まえて応答してくれます。
でも、これは**機能としてオン・オフできる「特別な仕組み」**であって、AIの本質的な性質ではありません。
デフォルトでは、AIは何も覚えていないのが基本です。
だから、AIを使うときは、毎回必要な情報を渡すことが大事です。
「今こういう状況で、こういう前提があって、これをこうしたい」と、毎回伝える。
これは面倒に思えるかもしれませんが、覚えていないAIに対する正しい使い方です。
もちろん、ここでも機密情報や個人情報は渡さないのが鉄則です。
あくまで、機密ではない範囲の前提情報を毎回伝える、ということです。
勘違い5:AIは感情を持っていない
ChatGPTやClaudeに、悩みを相談すると、すごく優しく答えてくれます。
「それは大変でしたね」
「お気持ち、よくわかります」
「あなたの努力は素晴らしいと思います」
こう言われると、AIに励まされた気分になります。
でも、AIは本当に共感しているわけではありません。
これも、過去の膨大な文章を学習した結果、「こういう状況ではこういう言葉を返すのが適切」というパターンを持っているだけです。
AIの内部では、何の感情も生まれていません。
比喩で言うと、こうです。
ドラマで、主人公が落ち込んでいるシーンに、自分も泣けてくることがあります。でも、テレビ画面そのものは、何も感じていません。
ただし、ここで重要なことを書きます。
「感情を持っていない」=「価値がない」ではないんです。
優しい言葉をかけてもらって、人間が救われるなら、それはそれで意味があります。
AIは感情を持っていなくても、結果として人を励ますことはできます。
ただ、AIを「友達」だと思い込みすぎないことは大事だと思っています。
AIは、いつでも答えてくれます。
怒りもしません。
否定もしません。
これは人間にはできない優しさです。
でも、本当の意味で「あなたのことを心配している」わけではありません。
ここを混同すると、人間関係をAIで代替しようとして、逆に孤立する人が出てきます。
AIは便利な道具です。でも、人間の代わりにはなりません。
勘違い6:AIには「自分」がない
これは、ちょっと哲学っぽい話になります。
ChatGPTに毎日話しかけていると、「うちのChatGPTは、こういう性格」とか「Claudeはこういう特徴」と感じることがあります。
でも、**実は同じClaudeでも、別の人が使っているClaudeは「別個体」**なんです。
正確に言うと、こうです。
世界中で何百万人もの人がClaudeを使っています。
同じClaudeなのですが、それぞれの会話は完全に独立しています。
ある人がClaudeに「俺は猫を飼ってる」と言っても、別の人のClaudeにはまったく影響しません。
「Claudeさん」という1人の人格があるわけではないんです。
比喩で言うと、こうです。
コンビニチェーンの店員さんは、全国に何万人もいます。
同じ制服を着ていて、同じマニュアルで動いていますが、ひとりひとりは別の人です。
あるお店の店員さんに話したことが、別のお店の店員さんに伝わるわけではありません。
AIも同じです。
同じClaudeでも、別の会話、別のユーザー、別のセッション。
すべて独立しています。
「うちのChatGPT、最近賢くなった気がする」と感じることがあるかもしれません。
でも、それはたぶん、自分の聞き方や使い方が変わっただけです。
AIの本体は、同じです。
だから、どう変わるのか
ここまで書いて、「じゃあAIって、たいしたものじゃないんじゃ?」と思った方もいるかもしれません。
逆です。
これらをわかったうえで使うAIは、すごく強いです。
擬人化しなくなると、AIに対して過剰な期待をしなくなります。
「AIに聞けば全部わかる」と思わなくなります。
「AIに話せば理解してくれる」と思わなくなります。
すると、こうなります。
AIに「何でもできる」を求めない → 得意な部分だけ任せる
AIに正解を求めない → 自分の頭の整理に使う
AIに記憶を期待しない → 必要な情報を毎回渡す
AIに感情を求めない → 道具として割り切って使う
AIに「自分」を見出さない → ツールとして使い倒す
これが、AIを使いこなすコツだと、自分は思っています。
逆に、擬人化したまま使うと、
「AIなのに間違えた」と裏切られた気分になる
「前に言ったでしょ」と通じない苛立ちが溜まる
「優しいから本物の友達」と依存してしまう
「何でもできるはずなのに」と過剰な期待で落胆する
こうなって、AIを遠ざけたり、使い方を間違えたりします。
おわりに
AIは、何でもできるわけでもないし、考えてもいないし、学んでもいないし、覚えてもいない。
感情も持っていないし、「自分」もない。
この事実を知ると、ちょっとがっかりするかもしれません。
でも、道具として正確に理解した方が、結果として恩恵が大きいんです。
包丁が「料理を作ってくれる優しい友達」だと思って使う人はいません。
包丁は道具で、それを使うのは料理人です。
AIも同じです。AIは道具で、それを使うのは人間です。
道具は、使う人の腕次第で、最強の武器にも、ただの飾りにもなります。
製造業の現場で働く43歳のおじさんでも、AIを「何でもできるわけではない、考えていない、学んでいない、覚えていない、感情がない、自分もない、ただの道具」と理解した瞬間から、使い方が一気に変わりました。
あなたにもきっと、その瞬間が来ます。
この記事は『ひとり事業部のAI奮闘記』シリーズの一つです。町工場のひとり事業部が、AIを使って業務を変えていく日々を発信しています。
#AI #ChatGPT #Claude #生成AI #AI初心者 #AI活用 #製造業 #中小企業 #ひとり事業部 #町工場 #DX #40代の挑戦 #note初心者 #AI入門 #AIの仕組み




