要旨: 信頼性の高い相対姿勢推定は、自律的なランデブーおよび近接運用を可能にする重要な要素である。しかし、宇宙画像は、極端な照明、強いコントラスト、そして高速な目標の運動のために、とりわけ困難であることが知られている。イベントカメラは、フレームベースの画像が飽和したりブレたりする場合でも情報を保持し得る、非同期かつ変化に駆動された計測を提供する。一方、ニューロモーフィック(脳型)プロセッサは、疎な活性を活用して、低レイテンシかつ省エネルギーな推論を実現できる。本論文では、イベントベースの視覚と BrainChip Akida ニューロモーフィックプロセッサを結合した、宇宙機の6自由度(6-DoF)姿勢推定パイプラインを提示する。SPADES データセットを用いて、軽量なイベントフレーム表現上でコンパクトな MobileNet 型のキーポイント回帰ネットワークを学習し、量子化を意識した学習(8/4ビット)を適用し、モデルを Akida 対応のスパイキングニューラルネットワークへ変換する。3種類のイベント表現をベンチマークし、Akida V1 ハードウェア上でリアルタイムかつ低電力な推論を実証する。さらに、Akida V2 を対象としたヒートマップベースのモデルを設計し、Akida Cloud で評価することで、姿勢精度の向上を得る。私たちの知る限り、Akida ハードウェア上で動作する宇宙機の姿勢推定のエンドツーエンド実演としては初めてのものであり、将来の自律宇宙ミッションに向けた、低レイテンシかつ低電力な知覚のための実践的な道筋を示す。
イベントカメラとニューロモーフィック・ハードウェアによる効率的な搭載宇宙機姿勢推定
arXiv cs.RO / 2026/4/7
📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、飽和、高コントラスト、そして高速運動といった宇宙画像の課題に対処するために、イベントカメラによる視覚とBrainChip Akidaのニューロモーフィック・プロセッサを組み合わせた、エンドツーエンドの6自由度(6-DoF)宇宙機相対姿勢推定パイプラインを提案する。
- イベントフレーム表現を用いて、コンパクトなMobileNetスタイルのキーポイント回帰ネットワークを学習し、量子化を考慮した学習(8/4ビット)を行ったうえで、Akida対応のスパイキングニューラルネットワークへ変換する。
- SPADESデータセットでのベンチマークにより、複数のイベント表現を評価し、Akida V1ハードウェア上でリアルタイムかつ低消費電力の推論を実現することを示す。
- 精度をさらに高めるため、著者らはAkida V2向けにヒートマップベースのモデルも設計し、Akida Cloudで検証することで、先行するバリアントよりも優れた姿勢精度を報告している。
- 本研究は、Akidaのニューロモーフィック・ハードウェア上で直接動作する搭載宇宙機姿勢推定のエンドツーエンド実証として初めてのものだと主張しており、今後の低遅延な搭載自律性に向けた実用的なアプローチとして位置づけている。

