Reference-Augmented Learning for Precise Tracking Policy of Tendon-Driven Continuum Robots

arXiv cs.RO / 4/29/2026

📰 NewsIdeas & Deep AnalysisModels & Research

Key Points

  • Tendon-Driven Continuum Robots(TDCR)は非線形で履歴依存・非マルコフ的なダイナミクスを持つため、従来のヤコビアン系制御ではヒステリシス起因の振動や追従の難しさが生じます。
  • 本論文は、参照(reference)を補強したオフライン学習フレームワークにより、TDCRの6自由度(6-DOF)追従制御を高精度化する手法を提案しています。
  • 両者の架け橋として微分可能なRNNベースのダイナミクス代理モデル(surrogate)を用い、勾配計算を可能にしつつ「補強された参照分布」に基づいて制御ポリシーを最適化します。
  • 多段階のデータ拡張(確率的バイアス、調和的摂動、ランダムウォーク)により、追加のハードウェア相互作用なしで多様な追従誤差の回復メカニズムをポリシーに学習させます。
  • 3セクションTDCRの実験では、非補強ベースラインに比べ平均位置誤差を50.9%削減し、ヤコビアン系手法に対して速度範囲を通じて精度と安定性の両面で優れた性能を示しました。

Abstract

Tendon-Driven Continuum Robots (TDCRs) pose significant control challenges due to their highly nonlinear, path-dependent dynamics and non-Markovian characteristics. Traditional Jacobian-based controllers often struggle with hysteresis-induced oscillations, while conventional learning-based approaches suffer from poor generalization to out-of-distribution trajectories. This paper proposes a reference-augmented offline learning framework for precise 6-DOF tracking control of TDCRs. By leveraging a differentiable RNN-based dynamics surrogate as a gradient bridge, we optimize a control policy through an augmented reference distribution. This multi-scale augmentation scheme incorporates stochastic bias, harmonic perturbations, and random walks, forcing the policy to internalize diverse tracking error recovery mechanisms without additional hardware interaction. Experimental results on a three-section TDCR platform demonstrate that the proposed policy achieves a 50.9\% reduction in average position error compared to non-augmented baselines and significantly outperforms Jacobian-based methods in both precision and stability across various speeds.