ReaLiTy and LADS: A Unified Framework and Dataset Suite for LiDAR Adaptation Across Sensors and Adverse Weather Conditions

arXiv cs.RO / 4/14/2026

💬 OpinionSignals & Early TrendsIdeas & Deep AnalysisModels & Research

Key Points

  • 研究では、同一シーンをセンサー仕様や悪天候条件を変えて観測したときに物理的に整合したデータが不足している点を問題提起しています。
  • 提案手法ReaLiTyは、ターゲットセンサー仕様と天候条件に合わせてLiDARデータを変換する統一的な物理情報(physics-informed)フレームワークで、物理に基づく手がかりと学習ベースのモジュールで強度(intensity)を生成します。
  • さらに物理ベースの天候モデルにより、幾何学的・放射(radiometric)的な劣化を一貫した形で付与できるようにしています。
  • これに基づき、LADS(LiDAR Adaptation Dataset Suite)として、元データとの1対1対応を持つ「物理的に整合した変換可能ポイントクラウド」群を提供し、ドメイン間の一貫性と天候効果の現実性が改善したことを実験で示しています。

Abstract

Reliable LiDAR perception requires robustness across sensors, environments, and adverse weather. However, existing datasets rarely provide physically consistent observations of the same scene under varying sensor configurations and weather conditions, limiting systematic analysis of domain shifts. This work presents ReaLiTy, a unified physics-informed framework that transforms LiDAR data to match target sensor specifications and weather conditions. The framework integrates physically grounded cues with a learning-based module to generate realistic intensity patterns, while a physics-based weather model introduces consistent geometric and radiometric degradations. Building on this framework, we introduce the LiDAR Adaptation Dataset Suite (LADS), a collection of physically consistent, transformation-ready point clouds with one-to-one correspondence to original datasets. Experiments demonstrate improved cross-domain consistency and realistic weather effects. ReaLiTy and LADS provide a reproducible foundation for studying LiDAR adaptation and simulation-driven perception in intelligent transportation systems.