iTeach: In the Wild Interactive Teaching for Failure-Driven Adaptation of Robot Perception
arXiv cs.RO / 4/15/2026
💬 OpinionSignals & Early TrendsIdeas & Deep AnalysisModels & Research
Key Points
- iTeachは、ロボットの知覚モデルが現場の分布外(散らかり、遮蔽、未知の物体など)で失敗した際に、デプロイ中にその失敗を人と共同で収集・学習へつなげる「失敗駆動の対話型ティーチング」フレームワークを提案しています。
- 実運用の場で人がモデルの予測を見ながら失敗例を特定し、短時間のHumanPlay(人と物体の相互作用)を行ってRGB-D動画を記録することで、役に立つ物体配置の情報を効率的に取得します。
- ラベリング負荷を下げるため、FS3(Few-Shot Semi-Supervised)により、短い相互作用列の最終フレームのみを視線入力と音声指示で注釈し、そのラベルを動画全体へ伝播して密な教師信号を生成します。
- 未見の物体インスタンスセグメンテーション(UOIS)で、少数の失敗駆動サンプルから反復微調整することで、pretrained MSMFormerからの初期状態でも多様な実環境でセグメンテーション性能が大きく向上します。
- 改善はSceneReplicaでの把持・ピッキング/配置(pick-and-place)成功率の向上や、実ロボット実験の結果として下流のマニピュレーション性能にも直接反映されます。
Related Articles

Black Hat Asia
AI Business
Vibe Coding Is Changing How We Build Software. ERP Teams Should Pay Attention
Dev.to
I scanned every major vibe coding tool for security. None scored above 90.
Dev.to
I Finally Checked What My AI Coding Tools Actually Cost. The Number Made No Sense.
Dev.to
Is it actually possible to build a model-agnostic persistent text layer that keeps AI behavior stable?
Reddit r/artificial