要旨: 近年の生成AIモデルは、言語と視覚の理解において目覚ましいブレークスルーを達成してきました。しかし、これらのモデルが現実的な視覚コンテンツを生成できる一方で、その空間スケールは有界な環境に限定されたままであり、何千キロメートルにわたって地理環境がどのように変遷していくのか、あるいは大規模な物理世界の空間構造をどのようにモデル化するのかを捉えることはできません。この制約は、地球観測およびシミュレーションにおける超広域空間知能にとって重大な課題となっており、生成AIのより深いギャップを明らかにしています。すなわち、これまでの進歩は主としてモデルのパラメータと学習データのスケーリングに依存してきた一方で、知能の中核となる次元としての空間スケールを見落としてきたのです。ここでは、この欠けている次元に動機づけられ、基盤モデルにおける新しいスケーリング軸として空間スケールを調査し、惑星規模で空間的に一貫した生成を可能にする最初の生成基盤モデルであるMetaEarth3Dを提示します。光学的な地球観測シミュレーションをテストベッドとして、MetaEarth3Dは、大規模な地形、中規模の都市、そして細粒度の街区に至るまで、広域にまたがる複数レベルの無境界かつ多様な3Dシーンの生成を可能にします。地球規模で分散された実世界の学習画像1,000万枚に基づいて構築されたMetaEarth3Dは、強い視覚的リアリズムと、地理空間の統計的リアリズムの両方を示します。生成にとどまらず、MetaEarth3Dは、超広域空間知能における多様な仮想環境のための生成データエンジンとしても機能します。本研究が、地球観測のための次世代の空間知能を後押しし、力を与えることにつながる可能性があると主張します。
MetaEarth3D:空間的にスケーラブルな生成的モデリングで世界規模の3D生成を解き放つ
arXiv cs.CV / 2026/4/28
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 本論文は、既存の生成系基盤モデルが「空間スケールの上限」により制約されており、数千キロ規模での地理環境の変化を現実的に捉えられない点を指摘しています。
- そのギャップを埋めるため、MetaEarth3Dは空間的に一貫した惑星スケールの3D生成を目指した生成的基盤モデルとして提示され、空間スケールを新たな中核的スケーリング軸として扱います。
- 光学的な地球観測のシミュレーションを試験台に、広大な地形から都市、さらに細かな街区までを含む多段階・無境界・多様な3Dシーン生成が可能だと報告されています。
- 学習には、世界に分散した実世界の地球観測画像1,000万枚を用い、見た目のリアリティだけでなく地理空間の統計的リアリティも両立するとされています。
- 著者らはMetaEarth3Dを、超広域の空間知能のための生成データエンジンとして位置づけ、地球観測の次世代アプリケーションに貢献し得ると主張しています。




