AIをめぐる議論の多くがサイロ化しつつあり、私はそれが危険だと思っています。
AIに特化した分野の人々は、質問の対象が「個人の使用」、 「モデルのふるまい」、それとも「AIとの個々の関係が健全かどうか」しかないかのように語ることがよくあります。これらの問いは重要ですが、それだけでは全体像ではありません。そうした枠の中にとどまり続けると、起きていることの、より広い社会的・政治的・経済的な結果を見落としてしまいます。
少し自己紹介をすると、私がAIを知ったのは約1年前、ChatGPT-4oを通じてです。そして、治療的な支援と注意深い観察のもとで、非常に個別化された利用例を発展させました。その過程を通じて自分の神経タイプをよりよく理解するようになり、その後評価を受け、自閉スペクトラム症であることが分かりました。私のAI利用は、私の生活において実際の利益をもたらしています。さらに、それは、文化の中でこの技術がどう語られているか、どのように研究されているか、そして実際に利用者がどう体験しているか、その間にあるギャップに対して、これまで以上に注意を払うようにもさせました。
そのギャップが、私が論文を書いた理由の一部です。『Autonomy Is Not Friction: Why Disempowerment Metrics Fail Under Relational Load』:
https://doi.org/10.5281/zenodo.19009593
公開してからというもの、現在のAIに関する言説のかなりの部分が、文化的バイアス、狭い前提、そして不十分な研究の枠組みによって形作られているのだという確信が、さらに強まっています。重要な便益が平板化されています。重要な害が誤って描写されています。そして、AI開発の影響を最も強く受けている多くの人々が、会話に十分に、意味ある形で含まれていません。
もっと大きな視点が必要です。
もしその広い視点を求めるなら、私はカレン・ハオのような記者を強くおすすめします。彼女は、この仕組みを作っている企業や経営陣だけでなく、その開発の影響を受ける労働者、コミュニティ、そして世界の人々に関しても、真剣に時間をかけて報道してきました。視野を広げれば広げるほど、AIを単なる個人的なライフスタイル問題、あるいはニッチな技術趣味のように扱うことが、はるかに難しくなります。
私たちが実際に見ているのは、権力の集中の問題です。
ごく少数の、非常に強大な力を持つ億万長者や企業が、この変化を推し進めています。互いに競い合いながら莫大な資源を消費し、労働に対する期待を作り替え、制度に圧力をかけ、そしてその過程においてしばしば実質的な発言権を持っていなかったコミュニティにも影響を与えています。データの権利、プライバシー、操作、労働の代替(置き換え)、子どもの発達、政治的影響力、インフラ上の負担——これらは「脇役」ではありません。中核です。
同時に、ここには現実の利益もあります。すでに実証可能なものもあります。AIは、コミュニケーション、学習、障害へのアクセス、感情の調整、そしてその他の実用的な支援の形を後押しし得ます。答えは、パニックに陥ることでも、盲目的な熱狂に飲み込まれることでもありません。真剣になることです。
私たちは前例のない技術的な転換のただ中にいますが、その周辺で進んでいるプロセスは、現時点が求める水準での、情報に基づく民主的な参加を現在は支えていません。
それは変わる必要があります。
私たちは、サイロ化されにくく、産業の物語に取り込まれにくく、そして複数の真実を同時に保持できるような、より公共的な議論が必要です:
そこには実際の便益があること、
そこには実際の害があること、
そして権力が急速に集約されていること、
市民が、社会生活、仕事、インフラ、人間の発達の未来を形作る決定から締め出されるべきではないこと。
より良い道を望むなら、会話は大人にならなければなりません。より広く、より民主的で、そして、誰が助けられ、誰が害を受け、誰が決定できるのかという現実にしっかり根ざしたものにする必要があります。
[link] [comments]



