シリアル・スケーリング仮説

arXiv stat.ML / 2026/4/30

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本記事は、機械学習の進歩が大規模な並列化によってもたらされた一方で、効率よく並列化できない「本質的に逐次的」な課題タイプがあることを重要な見落としとして指摘しています。
  • 著者らは「本質的に逐次的」な問題と「並列化可能」な問題の違いを計算量理論の観点で形式化し、並列中心の既存アーキテクチャでは逐次的な依存を伴うタスクに対して本質的な限界があると主張しています。
  • 記事では、逐次的な生成プロセスを持つにもかかわらず拡散モデルは(少なくとも検討された条件のもとでは)本質的に逐次的な問題を解けないことを初めて示したと述べています。
  • 計算の「逐次性」を認識することは、機械学習のモデル設計やハードウェア開発にも大きな含意を持つと結論づけています。
  • 全体として、モデルやアーキテクチャの選択を、計算の逐次性を“例外的制約”ではなく主要な制約として扱う方向に再定義しています。

Abstract

機械学習は大規模な並列化によって発展してきましたが、私たちは重要な盲点を見いだします。それは、ある種の問題は本質的に逐次的であるという点です。数学的推論から物理シミュレーション、逐次的な意思決定に至るまでの「本質的に逐次的」な問題は、効率よく並列化できない、順序に依存する計算手順を必要とします。私たちは複雑性理論の枠組みの中でこの区別を形式化し、現在の並列中心のアーキテクチャがそのような課題に対して根本的な制約を持つことを示します。さらに、拡散モデルが逐次的な性質にもかかわらず、本質的に逐次的な問題を解くことができないことを初めて明らかにします。計算の逐次的な性質を認識することは、機械学習、モデル設計、そしてハードウェア開発に深い意味を持つと論じます。