「被災状況の調査を開始します」。こう声を発し、身長約130cmの人型ロボット(ヒューマノイド)が、ぎこちない足取りでゆっくりと歩き出した。周囲を見渡すように首を回し、小刻みに体を揺らしながら建物内を進んでいく。やがて1本の柱の前で、ぴたりと立ち止まった。これは、建築研究所などが公開した実験の1コマだ。
ゴーグル型デバイスを装着した操作者が、「建物の被害状況はどうですか」とマイクに向かって話しかける。すると人型ロボットは柱の方向に腕を伸ばして損傷箇所を認識し、「傾きが30分の1以上あるようです」と報告した――。
建築研究所とロボット向けのアプリ開発などを手掛けるポケット・クエリーズ(東京・新宿)は2026年3月10日、災害時に人に代わって被災建築物を調査する人型ロボットを、報道陣向けに初めて公開した。人型ロボットの遠隔調査システムや、人型ロボットと4足歩行ロボットの連係システムを披露。被災地における応急危険度判定などを遠隔で実施する、新たな災害対応の可能性を示した。
公開実験の主役である人型ロボットは中国製で、高さ約130cm、重さ約40kg。4台のカメラの他、光が反射して戻るまでの時間を基に距離を測るToF(Time of Flight)センサーなどを搭載している。生成AI(人工知能)サービスのChatGPTと連係しているため、人と対話したり、撮影した画像を分析したりできるのが特徴だ。25年8月ごろから両者がシステム開発を進めてきた。
公開実験では、傾いた壁や損傷した柱などの被害の確認を想定。被災建築物を模した環境を屋内に設け、人型ロボットが柱の傾斜角を報告する様子を実演した。人型ロボットはカメラで撮影した損傷を基に、AIを使って被害状況を分析し、傾斜角の他、沈下量や変形量などを判断して結果を点検帳票に入力できる。
人型ロボットの移動については、現時点で遠隔操作による運用を前提としている。操作者は複数の画面に映るロボット目線のカメラ映像や撮影した画像の解析データなどを見ながら、コントローラーでロボットを操る。専用のゴーグル型デバイスを使って、複合現実(MR)に画面を投影し、直感的に操作することもできる。「手を挙げる」といった簡易な動きについては、音声による指示も可能だ。
次のページ
2030年ごろに災害現場への適用を目指すこの記事は有料会員限定です




