AI時代の国際情勢、なぜ同じニュースでも判断を間違えるのか?
「あ、それ違う――」
国際情勢の記事を読んで、
時々、思う事だ。
特にセカンド記事、
サード記事でだ。
そして日本の海外ニュースは、
セカンド記事、サード記事だ。
大きく判断を、
間違えている事があるのだ。
見えていない。
AIで分析ができるようになったのに、
なぜ判断を間違えやすくなったのか?
そのヒントは、
全く別の処にある。
構造の問題だ。
「同じニュースを見ているのに、
なぜか判断が真逆になる」
「AIで分析情報が増えたのに、
むしろ混乱している」
巷で溢れている様相だ。
人々の数だけ、意見が溢れる。
そんな状況をさらに
加速させているものがある。
AIだ。
例えば、
NotebookLMだ。
記事や動画のURLをかたっぱしから、
読み込ませて、吐き出させる。
圧縮して、変換して、リライト。
意味がズレている。
混ぜるな。危険だ。
あなたの見ているニュースは、
AIが作ったものでないと断言できるか?
(ヨーロッパの選挙ではそういう動画が飛び交う。
いわゆるディープ・フェイクだ)
あなたの読んでいる記事が、密かに、
ハルシネーションしていないと断言できるか?
(高度に加工されたウソは99%事実)
無論、AIが全て悪いとは言わない。
正しい場合もあるだろう。
だけどその保証がない。
基本的にAIは、
情報を加工しているだけだ。
AIは情報加工業者だ。
だから
AIの立ち位置は、
セカンドだ。サードだ。
そして人間の立ち位置は、
ファーストだ。
立ち位置が違う者同士で、
情報のやりとりをしている。
いや、そもそも、
それは人間社会では、
当たり前の事だ。
構造的に避けられない。
人間・AIだけの話ではない。
人間同士でも普通にそうだ。
ここで取り上げるべきは、
問題はその「入力情報」だ。
その混ぜ方だ。
だから判断ミスの原因は、
AIだけでなく、別の処にある。
これも構造の問題だ。
例えば、ある海外ニュースを見た時、
ある報道では「正義の行動」とされ、
別の報道では「挑発」や「侵略」とされる。
同じ国でもそういう事がある。
さらに別の媒体では、
「そもそも問題の本質はそこではない」
と語られたりする。
同じ出来事を扱っている筈なのに、
そこでナラティブされる
ストーリーはまるで違う。
どれが正しいのか。
全てか?あるいは、
部分的に正しいのか。
それとも全て間違っているのか?
判断は、容易に定まらない。
そこで人々は考える。
「この記事はバイアスがかかっている。
何かフィルターを通していないか?」
あるいは今だとこう考える。
「もしかしたら、
AIのせいではないか?」
最近は何でもAIを使う。
AIエージェントと言って、
人間の組織の中にも取り込まれる。
AIが組織で役割を与えられるのだ。
これも普通の事となりつつある。
今後加速するだろう。
そして記事であれば、
編集もするだろう。
それがAIの役割であれば。
AI編集長にご用心?
ただそうは言っても、
AIは膨大な情報を整理し、
再提示するだけだ。
罪はない。
イノセントだ。
もし罪があるとすれば、
それは人間の側だろう。
人間はAIと違って、
罪を背負う特権がある。
ノット・イノセントだ。
だからいたずらに、AIを、
ギルティとしてはいけない。
そうなると、AIそのものが
判断を歪めているというより、
使い方がおかしいか、
そもそも適切な場面で
投入されていないだけだろう。
AIが正しい場合もある。
AIはあくまで、
与えられた情報を整理し、
それらしく答えを作る装置だ。
そしてハルシネーションもある。
Deux ex Machina!
まさに機械仕掛けの神だ。
AI時代、新世界のDeuxは、
舞台の上で人間たちにoracleする。
ある人たちは言うだろう。
これは人間の知能を超えた
素晴らしい回答だと。
またある人たちは言うだろう。
何て融通の利かないサービスだ。
誰かサポートを呼べと。
要するに、問題は、
その前段階にあるだろう。
つまり――
どの情報を扱っているかだ。
そして、具体的にどうすればいいのか。
この続きでは、
「情報ではなく視点を変える」という観点から、
その構造と対策を解説したいと思う。
さらに一点追加すると、
どの情報も必ず、
言語という媒体を必要とする。
これが問題でもある。
ズレが生じる。
ではなぜ言語がそのズレを生むのか?
次の記事で解説する。
※続編(有料)を公開しました。
「なぜ言語が判断をズラすのか」を解説しています。

以上





