プログラマーではない背景から始まったのに、ここ数年の間に、少なくともPythonを読むことや書くことに習熟することに対して意図的な関心を持つようになりました。さらにJSONやJavaScriptのようなものにも手を広げました。というのも、これらの言語こそが、A.I.がデフォルトで使うのが大好きな言語だからです。私は、A.I.によって行われている作業について、少なくとも受け身の理解ができる状態でいたいとずっと感じていました。しかし驚くのは、A.I.に仕事をさせたり分析させたりするときに、多くの人が「裏側で何が起きているのか」に関してどれほど気にしていないかということです。技術的なことを知らないほど、またリーダーシップ側により上の立場にいるほど、Claudeに「何かやってきて、結果を持ってきて」と盲目的に、そして幸せそうに頼み、その出力や判断をそのまま実行に移しているようにさえ見えます。
普通、合理的で賢く、しかも勤勉な人たちが、何も考えずに何かを信じることにこれほどまでに前向きなのが不思議でなりません。もし基盤となる技術に少しでも心当たりがあれば、それがハルシネーションを起こしやすいことも分かりますし、さらに文脈やプロンプト、データが不十分だと、簡単に誤った前提を作ってしまうことも分かってしまうからです。私は、裏側で何が起きているのかを理解せずに、人々がどこまでA.I.を押し進める気でいるのかに本当に驚いています。それは、昔人々が「Wikipediaは使えない。信用できる情報源じゃないからね」と言っていたのを思い出させますが、人々は結局Wikipediaを使っていました。この場合は、現実世界での悪い結果につながった具体例を私は一つも思い出せません。おそらく、人々がWikipediaを現実の高リスクな意思決定のために使うのではなく、調査のために論文を書く用途で使っていたからでしょう。しかし今回は、人々がそれを現実世界の高リスクな意思決定に使っています。そこで、個人または組織が、どのようにしてそのA.I.の出力や判断が生まれたのか、あるいはハルシネーションによる情報やデータが含まれていないのかを理解していないにもかかわらず、それに頼って実行に移すという判断を下す、その「分岐点(限界点)」はいったいどこにあるのかが気になります。そこでは深刻な問題が解決される(=表面化する)ことになるでしょう。すでにそうしたことは起きているはずだとは思いますが、少なくとも自分の目で見た形ではまだありません。私が同僚や、私がやり取りしている人たちから観察しているところに基づけば、それは必然だと感じています。
[link] [comments]



