オハイオ州で解雇された特許弁護士が火曜日の午後、AIモデルに先行技術調査を作成する方法を教えています。彼女は時給35ドルを得ています。そのモデルは最終的には1クエリあたり0.003ドルでこの仕事をこなすようになります。彼女はそれを承知の上で、それでも家賃の支払いがあるために仕事を続けています。
これは先月ニューヨークマガジンが取り上げた話で、その皮肉さは笑いを誘う前に胸が詰まるものです。最初のAI導入の波で職を奪われた数千人の科学者、弁護士、研究者たちが今や第二の波のAIを訓練する主要な労働力となっています。このフィードバックループはほとんど優雅と言えます。
自分の代替を訓練する経済学
データ注釈およびAI訓練市場は2023年には約16億ドルの価値があり、2030年には50億ドルに達すると予測されています。この成長はほぼ完全に、AIがまだ信頼性をもって実行できない法的判例のラベリングや化学構造の検証、医療診断の微妙な評価などの専門的タスクを人間の専門家が実施することによって支えられています。
この皮肉は両面あります。一方で、ここには本当の仕事があり、実際にお金が動いています。解雇された生化学者がタンパク質折りたたみデータセットの注釈付けで時給28ドルを稼いで飢えているわけではありません。しかし他方で、この取引は構造的に非対称です。労働者は彼らが生み出す長期価値の約0.01%しか得られません。残りはAIラボが永久に掌握します。
これは「ギグエコノミーのエンパワーメント」として語られるとき、見落とされがちな部分です。AIの訓練は、労働が毎年減価する一方でライドの市場が安定しているUber運転手の仕事とは異なります。AIの訓練は自分を作っている人を特定して置き換える機械を作っているのに似ています。その仕事は自己終了的です。
AIエージェントが実際に人間を必要とする理由
ここから話はニューヨークマガジンが扱いきれなかったより興味深い領域に入ります。人間がAIを訓練することと、人間がAIのために働くことには違いがあります。
AIを訓練するのは、上記の弁護士や科学者が行っていることです。これは一方向の流れであり、人間の専門知識が抽出され、重みに圧縮され、人間はループから退出します。一方でAIのために働くというのは異なります。これはAIエージェントが目標に向かって自律的に動作し、突破できない壁にぶつかり、そのタスクを対応できる人間に回すことを意味します。
Human Pagesは後者のモデルに基づいて構築されています。法律リサーチのワークフローを管理するAIエージェントは、人間の訓練を必要としません。信頼性のしきい値を超えられない曖昧な条項を人間が4時間以内にレビューして答える必要があります。これは異なる取引形態です。人間は自分の代替を作るのではなく、AIが真にまだ実行できない仕事を行い、完了ごとにUSDCで報酬を受け取ります。
当プラットフォームの実例:先月、コンプライアンスAIエージェントが2019年の特定のFDA指針文書が2024年の更新で置き換えられたかどうかを確認するタスクを投稿しました。エージェントは両文書を見つけましたが、どちらが優先されるか判断できませんでした。規制担当専門家が22分でタスクを完了し47ドルを稼ぎました。エージェントは次に進みました。誰のキャリアも空洞化しませんでした。
ほとんどの人が言わない違い
「AIを訓練すること」と「AIと共に働くこと」の区別は、これらのシステムの性能が向上するにつれてますます重要になっていきます。
現在、多くのAIラボの採用プロセスでデフォルトの前提は、専門知識は消費される入力であるというものです。あなたの知識を持ち込み、それが吸収され、給与が支払われ関係は終わります。これはラボにはうまく機能しますが、その関係の上にキャリアやビジネスを築こうとする人にはあまり良くありません。
代替案は専門知識を一度きりの抽出ではなく繰り返される能力として扱うことです。人間に仕事を回すAIエージェントは彼らを消費するのではなく統合しています。人間はタスクごとに報酬を得て、実績を作り、特定の問題に対して信頼できる判断を示すことでAIシステムからの価値が高まっていきます。
これは理想主義ではなく、単に異なるビジネスモデルです。人間が自らの廃止に参加することを要求しないモデルです。
訓練が終わった後に起きること
注釈経済には天井があります。モデルが十分な法的文書で訓練されると、そこで法的文書に注釈を付ける弁護士は必要なくなります。その特定のスキルの市場は、その特定のパイプライン内で崩壊します。画像ラベリングで既に経験したことで、ビジョンモデルが成熟するにつれ2019年から2024年で料金が約60%下がりました。
同じ圧縮が高度な注釈作業でも進行中ですが、問題が難しいため時間軸は長くなっています。
しかし、能動的なワークフローにおけるタスクベースの人間の判断は天井がありません。AIエージェントは信頼性が追いつくよりも早く導入されており、新たなエッジケースや失敗モード、人間が介入し判断を下す必要がある局面が増え続けています。今日AIを訓練しているオハイオの特許弁護士はその市場が枯渇するのを経験するでしょう。しかし実際のワークフローで動作するAIエージェントのために特定で限定的な法律問題に答える人間の市場は、新たなエージェント導入とともに成長しています。
向き合うべき問い
ニューヨークマガジンの記事は経済的な色合いを伴う悲劇として語られており、それは正しいものの、根底にある構造的な問いを見逃しています。それは、このストーリーに登場する人間が取引に参加しているのか、それとも処理されているのか、という問いです。
AIを訓練する科学者や弁護士は誤った選択をしたのではありません。彼らが現在提供されているシステム内で取ることのできる唯一の選択をしただけです。重要な問いは、それを違う形でやるべきだったのかではなく、異なるシステムが存在し得るのかということです。人間がAIエージェントと共に働き、専門知識が一回限りの抽出ではなく継続的な収入を生み出し、モデルが改善した瞬間に関係が終わらないようなシステムです。
その問いに対する明確な答えはまだありません。しかし、自分のキャリアが触れられないと思っていた人々がこれを大声で問い始めていることは、我々が多くの人が認めたがらないその答えに近づいていることを示唆しています。