広告

UltraG-Ray:超音波ビュー合成のための物理ベース・ガウス光線キャスティング

arXiv cs.CV / 2026/4/1

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、超音波の画像形成プロセスを学習に基づくレンダリングに頼るのではなくシミュレーションに統合する、物理ベースの新規ビュー合成手法「UltraG-Ray」を提案する。
  • UltraG-Rayは、学習可能な3Dガウス場によって超音波シーンを表現し、超音波特有のレイキャスティングを行う効率的なBモード物理モジュールと結合する。
  • 減衰や反射といった超音波パラメータを、ガウスベース表現へ明示的に符号化することで、ビュー依存の音響効果をより正確に可能にする。
  • 著者らは、最先端手法と比べて現実味が向上したと報告しており、MS-SSIMで最大15%の改善が得られ、シミュレーションと現実のギャップが小さいことを示している。
  • 本研究は、複雑な組織条件下でも解剖学的に妥当なビュー生成に役立ち、臨床家のトレーニングやデータ拡張を支援しうるものとして位置づけられている。

Abstract

Novel view synthesis (NVS) in ultrasound has gained attention as a technique for generating anatomically plausible views beyond the acquired frames, offering new capabilities for training clinicians or data augmentation. However, current methods struggle with complex tissue and view-dependent acoustic effects. Physics-based NVS aims to address these limitations by including the ultrasound image formation process into the simulation. Recent approaches combine a learnable implicit scene representation with an ultrasound-specific rendering module, yet a substantial gap between simulation and reality remains. In this work, we introduce UltraG-Ray, a novel ultrasound scene representation based on a learnable 3D Gaussian field, coupled to an efficient physics-based module for B-mode synthesis. We explicitly encode ultrasound-specific parameters, such as attenuation and reflection, into a Gaussian-based spatial representation and realize image synthesis within a novel ray casting scheme. In contrast to previous methods, this approach naturally captures view-dependent attenuation effects, thereby enabling the generation of physically informed B-mode images with increased realism. We compare our method to state-of-the-art and observe consistent gains in image quality metrics (up to 15% increase on MS-SSIM), demonstrating clear improvement in terms of realism of the synthesized ultrasound images.

広告