要旨: 大腸がん検診は大腸内視鏡検査に強く依存していますが、既存のプラットフォームでは、オペレータ操作の制御、器具の動き、視覚フィードバックが結び付いたダイナミクスを体系的に研究するための十分な支援が提供されていません。このギャップは、ロボットによる大腸内視鏡、医用画像、そして新興の視覚言語アクション(VLA)学習パラダイムにおける再現可能なクローズドループ研究を制限します。そこで本課題に対処するために、我々はOpenRCを提示します。これは、従来のスコープに後付けして臨床ワークフローを維持する、オープンソースのモジュール型ロボット大腸内視鏡フレームワークです。このフレームワークは、動画、オペレータの指令、作動状態、そして遠位端チップの姿勢を同時に記録することを可能にします。実験により運動の一貫性を検証し、各センシング・ストリーム間のクロスモーダル遅延を定量化しました。このプラットフォームを用いて、日常的なナビゲーション、失敗イベント、回復行動の3種類を含む、構造化されたタスク変動10通りにわたって、テレオペレーションされたエピソード1,894回、約19時間分からなるマルチモーダルデータセットを収集しました。オープンなハードウェアと整合したマルチモーダルデータセットを統合することで、OpenRCは、マルチモーダルなロボット大腸内視鏡および手術の自律性に関する研究のための、再現可能な基盤を提供します。
OpenRC:マルチモーダルデータ取得と自律性研究のためのオープンソース・ロボティック大腸内視鏡フレームワーク
arXiv cs.RO / 2026/4/7
📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- OpenRCは、操作者の操作、器具の動作、視覚フィードバックの結合したダイナミクスを記録することで、再現可能なクローズドループ研究を可能にするオープンソースのロボティック大腸内視鏡フレームワークである。
- 従来の内視鏡に改修を施しつつ臨床ワークフローを維持し、動画、操作者コマンド、アクチュエータ状態、遠位チップの姿勢を同期して記録できる。
- 著者らは、運動の一貫性を検証し、信頼性の高いマルチモーダル学習および自律性実験を支えるために、各センシング・ストリーム間のクロスモーダル遅延を定量化する。
- 彼らは、定型的なナビゲーションや失敗/回復行動を含む、10種類の構造化されたタスク変化にわたって、1,894エピソードの遠隔操縦データ(約19時間)からなるマルチモーダル・データセットを収集した。
- オープンハードウェアと整合されたマルチモーダル・データセットを組み合わせることで、OpenRCは、マルチモーダル・ロボティック大腸内視鏡および手術の自律性/VLAスタイルの学習に関する研究の標準化された基盤を提供することを目指している。




