Scaling seismic foundation models on AWS: Distributed training with Amazon SageMaker HyperPod and expanding context windows
Amazon AWS AI Blog / 4/2/2026
💬 OpinionDeveloper Stack & InfrastructureTools & Practical UsageModels & Research
Key Points
- TGSはAmazon SageMaker HyperPodを用いた分散学習により、Vision TransformerベースのSeismic Foundation Model(SFM)で近い線形スケーリングを実現しました。
- 同ソリューションにより、従来6か月かかっていた学習時間を5日へ大幅に短縮できたと報告されています。
- モデルのコンテキストウィンドウを拡張し、これまでより大きい地震ボリュームの解析を可能にしました。
- AWS上での実装・運用の工夫を通じて、大規模訓練と推論に必要な計算資源のスケール課題に対する実践的な指針が示されています。
This post describes how TGS achieved near-linear scaling for distributed training and expanded context windows for their Vision Transformer-based SFM using Amazon SageMaker HyperPod. This joint solution cut training time from 6 months to just 5 days while enabling analysis of seismic volumes larger than previously possible.


