Location Is All You Need: Continuous Spatiotemporal Neural Representations of Earth Observation Data

arXiv cs.CV / 4/9/2026

📰 NewsIdeas & Deep AnalysisModels & Research

Key Points

  • 提案手法LIANetは、空間座標と時間座標のみを入力として、対象地域の多時期の衛星地球観測データを連続的な時空間ニューラルフィールドとして表現・再構成する座標ベースの表現モデルです。
  • いったん事前学習した後は、元の衛星データにアクセスせずにセマンティックセグメンテーションやピクセル単位回帰などの下流タスクへ適応(微調整)できる点が特徴です。
  • エンドユーザーのための「データアクセス/前処理の手間」を削減し、GFM(Geospatial Foundation Models)の代替として、ラベルのみでファインチューニング可能な運用を目指しています。
  • ターゲット領域のサイズが異なる複数領域で事前学習し、下流タスクでの微調整がスクラッチ学習や既存GFMの利用と比較して競争力のある性能を示したと報告しています。
  • コードとデータセットが公開されており、研究コミュニティによる再現・検証と応用がしやすい形で提供されています。

Abstract

In this work, we present LIANet (Location Is All You Need Network), a coordinate-based neural representation that models multi-temporal spaceborne Earth observation (EO) data for a given region of interest as a continuous spatiotemporal neural field. Given only spatial and temporal coordinates, LIANet reconstructs the corresponding satellite imagery. Once pretrained, this neural representation can be adapted to various EO downstream tasks, such as semantic segmentation or pixel-wise regression, importantly, without requiring access to the original satellite data. LIANet intends to serve as a user-friendly alternative to Geospatial Foundation Models (GFMs) by eliminating the overhead of data access and preprocessing for end-users and enabling fine-tuning solely based on labels. We demonstrate the pretraining of LIANet across target areas of varying sizes and show that fine-tuning it for downstream tasks achieves competitive performance compared to training from scratch or using established GFMs. The source code and datasets are publicly available at https://github.com/mojganmadadi/LIANet/tree/v1.0.1.