Location Is All You Need:衛星地球観測データのための連続的な時空間ニューラル表現

arXiv cs.CV / 2026/4/9

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 提案手法LIANetは、空間座標と時間座標のみを入力として、対象地域の多時期の衛星地球観測データを連続的な時空間ニューラルフィールドとして表現・再構成する座標ベースの表現モデルです。
  • いったん事前学習した後は、元の衛星データにアクセスせずにセマンティックセグメンテーションやピクセル単位回帰などの下流タスクへ適応(微調整)できる点が特徴です。
  • エンドユーザーのための「データアクセス/前処理の手間」を削減し、GFM(Geospatial Foundation Models)の代替として、ラベルのみでファインチューニング可能な運用を目指しています。
  • ターゲット領域のサイズが異なる複数領域で事前学習し、下流タスクでの微調整がスクラッチ学習や既存GFMの利用と比較して競争力のある性能を示したと報告しています。
  • コードとデータセットが公開されており、研究コミュニティによる再現・検証と応用がしやすい形で提供されています。

概要: 本研究では、LIANet(Location Is All You Need Network)を提示します。これは、座標ベースのニューラル表現であり、特定の関心領域(ROI)に対して、複数時期の宇宙搭載型地球観測(EO)データを、連続的な時空間ニューラル場としてモデル化します。空間座標と時間座標のみが与えられると、LIANetは対応する衛星画像を再構成します。いったん事前学習されたこのニューラル表現は、重要な点として、元の衛星データにアクセスすることを必要とせずに、セマンティックセグメンテーションや画素単位の回帰など、さまざまなEO下流タスクへ適応できます。LIANetは、エンドユーザのためのデータアクセスおよび前処理に伴うオーバーヘッドをなくし、ラベルのみに基づいてファインチューニングを可能にすることで、地理空間基盤モデル(Geospatial Foundation Models: GFMs)に対するユーザーフレンドリーな代替として機能することを意図しています。対象領域の大きさが異なる複数の領域にわたってLIANetの事前学習を実証し、さらに下流タスクに対してそれをファインチューニングすることで、スクラッチからの学習や確立されたGFMsの使用と比べて競争力のある性能が得られることを示します。ソースコードおよびデータセットは https://github.com/mojganmadadi/LIANet/tree/v1.0.1 で公開されています。