...そしてほとんどの人は、いまだにそれを 未来 の 問題みたいに扱っている。
最近ずっと気になっている変なパターンがあって……たぶんしばらく前からなんだけど、もう起きているのに、人々がまだ「これは将来の問題だ」みたいに話している感じがする。
その分断は、実際には「アーティスト vs テック系の兄ちゃん」でもなければ、「善人 vs 悪人」でもないし、「頭がいい vs 頭が悪い」でもない。もっとこうだ:
これらのツールを実際に使い方から学んでいる人 vs 最初の時点で自分には下だと思ってしまって、それ以降は一切関わらないという姿勢を丸ごと作り上げた人。
うん、ちょっと意地悪に聞こえるかも。でも周りを見て。どれくらいの頻度で同じ即時反応のパッケージを見かける?
「それはAI」「AIのゴミ」「うわ、気持ち悪い」「AIが嫌い」
たぶん今週少なくとも一回はこの流れを見ているはず……
批評でもない、分析でもない、限界やトレードオフについて本当に話そうとする試みすらない。ただの反射。見切り発車の一蹴。会話が始まる前に会話を殺しに来る感じ。
変なのは、こういう人の多くが 本当は まったく無知じゃないってこと。これらのシステムができること――文章、コーディング、ブレインストーミング、要約、アイデアの整理、説明、人がより速く学べるように手助けすること――そういうことを見てきている。そこに実際の有用性があるのも分かっている。だけど、その含意に触れたくないだけ。
というのも、まじめに関わり始めた瞬間、気まずい何かを認めなきゃいけなくなるかもしれないからだ。つまり、あなたの今のワークフロー、今の創作プロセス、今の考え方が、自分が思っていた「進化した最終形」ではないかもしれない、ということ。で、多くの人にとっては、自分をアップデートするより、エゴを守るほうが簡単なんだ。
だから俺は、これを単純なテクノフォビア(技術恐怖症)だと言いたいだけではないと思う。もちろん一部はそれだ。けど多くは、アイデンティティの保護っぽく感じる。人は他の現代テクノロジーのあらゆる層の中に住むのは平気なんだ。でもこれは、自分を定義するために使っている特性にあまりに近すぎる:
- 文章を書くこと
- 創造性
- 問題解決
- センス
- 知性
- スキル
だからこそ、不快さを検証する代わりに、その壁で遮断して「壁のほうが賢い」と呼ぶ。
「AIゴミ」が、偽物の頭の良さの近道になってきている
低努力のクズみたいなものが存在するのは当然だ。まともな人がそれを否定しているわけじゃない。悪いプロンプトが悪い出力を生むのと同じように、ダメなライターがダメなエッセイを書くのと同じで、ダメなミュージシャンがダメな曲を作る。それは深い話じゃない。
俺が気になるのは、「ゴミ(slop)」が 偽物の頭の良さの近道 になっていることだ。半分はもう、批評として機能してすらいない。単なる雰囲気ラベルとして、人がそれを貼ることで関わらなくて済むようにしているだけだ。誰かが本当に時間をかけて出力を誘導し、弱い主張を拒否し、構成し直し、編集し、自分のアイデアを統合していく。そのうえで、別の誰かが「AIっぽい」って2秒だけ感じ取って、その時点で議論を終わらせる。
それは 見極め(discernment)じゃない。ただ 一段賢そうな服を着た見捨て(dismissal) だ。
そして一番おもしろいのは、「自分ならいつでも見抜ける」と思っている人がどれだけ多いかだ。もちろん見抜けることもある。だけど、自信満々に間違っていることもある。精錬された出力があなたをすり抜けていった場合、たいてい自分では気づかない。人は、うまく見抜けた明らかなクズだけを覚えて、それを元に自分の自信を組み立てる。より良いものは、気づかれずにすり抜けていく。だから「自分はいつでも見抜ける」側の人たちは、かなり寛大なカーブ の上で自分の検出力を採点してしまうことになる。
ここでの利点は、増幅(複利)することだ
大きなポイントは、imo(俺の意見)では、ここでの優位性が増幅していくってこと。固定されたものじゃない。ここ1、2年ちゃんとこれらのツールを使ってきた人は、おそらくもう本物の直感を身につけている。どう誘導するか、どう妥当性を点検するか、弱い出力をどう見つけるか、機械に潰されずにシグナルをどう抽出するか――そういうことだ。それは 本当のスキル。偽物でもない、ダサいわけでもないし、みんながすでに稽古を積んだ後に赤ちゃん向けの磨き上げた安全なラッパーを開くだけで、魔法みたいにあとから身につけられるようなものでもない。
そして「生産性」の意味だけじゃない。思考そのもの のことだ――分析、統合、デバッグ、リサーチ、学習スピード、発想、パターン認識、言語の形作り。これらのツールをうまく使う人は、変な種類の認知的レバレッジを作り上げていて、拒否している人たちの多くは、あとでその差がどれだけ重要になりうるかをひどく過小評価していると思う。
教育はこれをここまでひどく取り違えている
教育についても同じだと思う。正直、メッセージのかなりの部分が「使うな、ズルだ」ってところで止まってるように感じる。うん、生徒が脳みそ全部を機械に投げ込んで、その結果を手を加えずに提出するなら、もちろん問題だ。でもそれは、実際の問題のほんの狭い一部分にすぎない。
もっと大きな失敗は、多くの学校が、出力を評価する方法、推論の質を比較する方法、幻覚を見抜く方法、主張を監査する方法、そしてそれらに依存せずに批判的にこれらのツールを使う方法を教えることよりも、検知器や恐怖のショーに興味を持っているように見えることだ。そんなのは、すでに部分的に失われている世界に合わせて人を訓練しているように感じる。
要点
だから、うん、現実に本当の分断がすでにできつつあると思う。聖人とバカの間じゃない。純粋な人間と邪悪なロボットの間でもない。あるのは 新しい情報環境に適応する人 と それを拒む人 の間だけだ。そして追いつくためのカーブは、誰かが思っているほど優しくないと思う。
たぶん俺は言い過ぎているのかもしれない。AI反対派が正しくて、俺たちはただの高級オートコンプリートを持ち上げすぎているだけなのかもしれない。でも同時に、多くの人が後から振り返って、「ラインを守っていた」なんていうより、ずっと前に学ぶべきだったツールセットから自分を締め出していただけだと気づくと思う。
みんなの周りでも同じことが起きているのか、それともこの読み物全体は勘違いだと思っているのか、気になる。
reresloprz: 2秒で何かを「ゴミ(slop)」って呼んで、明らかなクズを見抜けた気分にはなる。でも、そもそももっと強いシグナルに関わる能力が育たないタイプの人。
xÐ.
ちなみに、 上に出ているのとまったく同じものを投稿したため、r/Futurology から削除され、禁止になりました……残念です。<10分で6kビューと20+コメントありました。まあね :) ~
[link] [comments]




