広告

AGIは新しい雇用を生み出さない——その理由

Reddit r/artificial / 2026/3/31

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • この記事は、もしAGIが現在経済的に価値のあるあらゆるタスクで人間と同等になった場合、既存の仕事だけでなく、将来的な仕事までも置き換えることができる可能性がある、と論じています。特に、成功が生産性や品質によって測られる領域ではそうなり得ます。
  • 人間の知能は実質的に有限次元であり、低次元のマニフォールド(多様体)上に存在する可能性が高い、と主張します。これは、神経科学におけるパラメータ空間の推論や、IQのような測定が約7〜10の認知コンポーネントで大半の分散を捉えているという観察から推測されます。
  • 著者は、人間における予測的な「g因子」(g-factor)が多くの認知タスクへと転移することから、人間だけが唯一の優位を持ち得るような、本当に新しく、相関のないタスク次元は多くないのではないか、と論じています。
  • さらに、現在のAIシステムはすでに同様のg因子的挙動を示しているため、重要なベンチマークにおけるAIの性能は、AGIにとって関係のある形で一般化することを示唆すると主張します。

私たちがAGIを、すべての現在の経済的に価値のあるタスクにおいて、人間と同等のパフォーマンスを発揮するようなものだと定義するなら、理論上は、AGIが得意ではない新しいタスクが作られ、それを人間が新たなニッチにできる、ということが起こりうるのかもしれません。以下の議論では、AGIがすべての仕事、そして将来の仕事(少なくとも、成功が生産性/品質で測られる仕事)を置き換えることが可能であり、また起こりそうであることを示したいと思います。

  1. 実現可能性の議論:既知の次元における知能は、測定されていない新しい次元へ一般化できる

まず、人間の一般知能には有限次元の解があることを示したいと思います。これは、人間の脳全体のパラメータ空間を見ると理解しやすいです。たとえば1ニューロンにつき1パラメータと仮定する場合、あるいは、脳をもう少し高い解像度でモデル化したいなら1ニューロンにつき100〜1000パラメータとします。その結果、~860億〜860兆パラメータ/次元になります。これは膨大ですが、最も重要なのは、有限であるという点です。次に、人間の知能は、はるかにずっと低い次元のマニフォールド上にある可能性が高いことを示したいです。そのためにIQテストを見てください。基本的にIQテストが示してきたのは、知能を少数の広い認知的成分に分解できるということです。これにより、人間の認知パフォーマンスにおける全分散の50%を説明する、おおよそ7〜10の広い能力が特定されます。IQテストが示してきたのは、人間の知能の一種のPCAです。つまり、この非常に複雑なもの(知能)は、ほんの数個の成分に分解でき、それだけで人間の認知タスクにおけるパフォーマンスの50%を説明できるように見える、ということです。これは、知能のランクが7〜10だという意味ではありません。むしろ、知能タスクにおける機能的ランクは、脳そのものの~860兆という次元数に比べて、かなり低い可能性が高いということです。

では、測定される認知的次元の量は、人間の脳全体の次元のほんの一部にすぎません。とはいえポイントは、g因子が多くの認知タスクに対して非常に高い予測力を持つことを私たちは知っているので、g因子と低い相関、あるいは相関のない新しいタスク/次元を見つける可能性は低い、ということです。したがって、この時点ですでに、ランク7〜10の空間だけで人間の知能のかなり正確な全体像を得られます。人間の脳がこれらの認知タスクをすべて、10次元のマニフォールドにまで分解できていることを考えると、未測定の新しい次元へ一般化する、低ランクの解を認知タスクで見つけることは少なくとも実現可能だと示されています。

2) 現在のAIシステムはすでにg因子を示している:

次に、AIのg因子について主張したいと思います。要するに、これはAGIにおける「g」が何を意味しているのかと同じものです。ここで私たちが気にするのは、IQテストとまったく同様のこと、つまり、あるベンチマークでのパフォーマンスが別のベンチマークのパフォーマンスへと変換される(通じる)という点です。人間の知能のあらゆる次元を測定することは不可能です(先ほど述べたとおり、~860兆次元まで)。人間にとって経済的に価値のあるあらゆるタスクをテストすることも、少なくともその~860兆次元の部分集合にすぎないので、完全には不可能ではないにしても、やはり不可能に近いです。幸いなことに、モデルが一般化するなら、すべてを測る必要はありません。もしモデルが、中国の部屋の実験のように、入力と出力の1対1の対応だけを持つなら、それらは厳密に暗記していることになります。この場合、経済的なすべてのタスクを測る必要があります。なぜなら、その解は脆く、まったく一般化しないからです。まず、同じデータ分布内で少なくとも一般化しているという最初の証拠は、見えていないデータのテストセットでうまく機能することです。したがって、この仮定の最も極端な形は明らかに成り立ちません。次に、特に大きなモデルほどうまく一般化することが分かっています。その説明の一つは、ロッタリーチケット仮説です。これは、モデル内の潜在空間を使って多くの異なる解を試し、その中で最良の解だけが勝つという考え方です。これは、モナ・リザのようなものを1000倍の圧縮率で圧縮して、単純なルールとして保存するようなことだと示しています。この圧縮こそが、一般化が本質的に行っていることです。つまり、信号を保持しノイズを無視する(オッカムの剃刀とも完全に整合的に)最も低ランクの解を見つけることです。

第三に、事後学習(posttraining)が、まったく新しいレベルの一般化能力を解放しました。経験的に、推論モデルは数学/コーディングのベンチマークでの性能が、数学やコーディングとは関係のない未見の推論ベンチマークにも大きく持ち越されることが分かっています。これは直感的にも理解できます。推論とは、分布内の要素から新しい対象を生成する能力だからです。ネットワークの最初の層は、入力に対して何らかのPCAのような処理を行い、最も単純な要素に分解します。その後、各連続する層が、それをより複雑なものへと合成していきます。ネットワークは圧縮され一般化可能なルールを使うので、これまでに見たことのない新しい対象を生成できるのです。対象がOOD(分布外)であるほど、より多くの層が必要になります。時にはそれが、アーキテクチャの層数を超えることもあります。つまり難しい問題では、モデルは自己へと立ち返る必要が出ます。再帰(recursion)です。ここで言う推論の本質は、局所ルールを使って対象の複雑さを増やすための反復的PCAであり、それによってOODなものを生成することです。さて、推論はトークン層によってボトルネック化され、推論それ自体がスキルです。モデルは重みを最適化するように学習し、基本的には最適化を解くためのルール/アルゴリズムを作り出します。この場合、ネットワークはループ不変(loop invariant)なアルゴリズムを生成するので、それを反復的に適用できます。また、推論それ自体のためのアルゴリズムも生成されます。つまり、正しい合成につながる正しい単語が使われます。結局、推論そのものもアルゴリズムにほかなりません。したがって、推論が一般化につながることは驚くべきことではありません。推論とはまさに何であるか、その本質そのものが一般化だからです。これは非常に低ランクの解です(トークンはNN自体に比べて非常に低次元なので)。そして、それは非常に一般化しやすい解です。

つまり、これらすべてが意味するのは、モデルのあらゆる認知領域を測定していなくても、私たちは単に測る必要がないということです。ある程度一般化していること、さらに創造的な方法で新しい数学の定理まで解けることが示されていることが、「彼らが一般化している」ことの証拠になります。したがって、必要十分な数の認知的次元を測定すれば、彼らの知能を正確に描写できるでしょう。なぜなら、彼らの知能自体は、おそらく機能的にはかなり低ランクであるからです。人間の知能ほど機能的に低ランクであると言い切ることはまだできませんし、人間の知能と同じg因子であるとも言えません。しかし、そこに到達する可能性は高くありません(高いとは言いませんが、低いわけでもない)と言えるでしょう。実際、NN(ニューラルネット)の目的全体は、この問題空間に対する最も低ランクの解を見つけることです。人間はそれが可能であることをすでに示しています。だから、それが実現可能であることも私たちは知っています。

最後の議論として、たとえ人間が得意とし、AGIがまだうまくないような新しい認知タスクがいくつか存在したとしても、その新しい目標に対してAGIが最適化できる速度よりも速く、人間がリスキリング(再学習)して追いつくことは難しいと思います。したがって、パフォーマンスに基づくあらゆる経済的に価値のあるタスクは、AGIシステムが手に入れられた時点で完全に自動化される可能性が高いように思えます。

submitted by /u/PianistWinter8293
[link] [comments]

広告