人とロボットの協調における安全判断のための対話ベースのインタラクティブ説明

arXiv cs.RO / 2026/4/8

📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、安全性が重要な環境における人とロボットの協調(HRC)中に、人間の協力者に対してロボットの安全判断を理解可能にする対話ベースの枠組みを提案する。
  • 説明システムを、制約に基づく安全評価と密に結合し、ロボットの行動選択に用いるのと同じ状態および制約表現に対話内容を根拠付けることで、整合性を高める。
  • ユーザは因果的(「なぜ?」)、対照的(「なぜできないの?」)、反事実的(「もし〜だったら?」)な質問を行うことができ、説明は記録された意思決定トレースに直接基づいて生成される。
  • 反事実の評価は、固定された認証済みの安全パラメータのもとで有界に行い、インタラクティブな探索によって運用上の保証が弱まることを防ぐ。
  • 構築ロボティクスの具体例により、制約を意識した対話が安全介入を明確化し、協調的なタスク復旧を支援できることを示す。

要旨: ロボットが共有される安全性に重大な環境でますます運用されるようになるにつれ、安全に振る舞うことはもはや十分ではありません。ロボットは、人間の協働相手に対してその安全上の判断を理解可能な形で示さなければなりません。人間とロボットの協働(HRC)においては、停止やモード切替といった行動は、近くにいる作業者には不透明なままの内部安全制約によって引き起こされることがしばしばあります。本論文では、HRCにおける安全判断の対話的説明のための、対話に基づく枠組みを提案します。このアプローチは、説明を制約に基づく安全性評価と密に結び付け、行動選択を支配するのと同じ状態および制約表現に対話を根付かせます。説明は記録された意思決定トレースから直接導出されるため、ユーザは安全介入に関して因果的な問い(「なぜ?」)、対比的な問い(「なぜそれではないのか?」)、反実仮想的な問い(「もし〜なら?」)を提示できます。反実仮想の推論は、固定された認証済みの安全パラメータのもとで有界に評価され、対話的な探索によって運用上の保証が緩むことがないようにします。本枠組みを建設ロボティクスのシナリオに具体化し、制約を意識した対話がどのように安全介入を明確化し、協調的なタスク復旧を支援するかを示す構造化された運用トレースを提供します。説明を安全制御に対する運用上のインターフェースとして扱うことで、本研究はHRCにおける対話的で安全を意識した自律性のための設計観点を前進させます。