リソース制約下のUAV搭載型によるエッジ端末での圃場特化管理のための雑草検出

arXiv cs.CV / 2026/4/28

📰 ニュースDeveloper Stack & InfrastructureModels & Research

要点

  • 本論文は、現実のリソース制約下でエッジ端末上のUAV向けに雑草をリアルタイム検出する際、各物体検出モデルがどの程度性能を発揮するかの理解が不足している点を扱っています。
  • UAVのデータ取得、モデル開発、オンデバイス推論を統合したデプロイ指向のフレームワークを提案し、検出精度と計算効率の両立を重視しています。
  • YOLOv8〜v12とRT-DETRv1〜v2という複数の最新検出器ファミリについて、Jetson Orin Nano、AGX Xavier、AGX Orinで実験を行い、精度と推論遅延のトレードオフを明確に示しました。
  • 高容量モデルは最大86.9% mAP50を達成する一方でレイテンシが高く、リアルタイム運用には制約があります。
  • RT-DETRv2-R50-Mは効率と精度のバランスが良い候補(約79% mAP50)で、YOLOv10nは最速の推論を提供し、総合的にはYOLOv11sとRT-DETRv2-R50-MがリアルタイムUAV展開に適していると結論づけています。

要旨: 雑草は光、水、栄養分をめぐって作物と競合し、収量および作物品質を低下させます。効率的な雑草検出は、圃場ごとの雑草管理(SSWM)に不可欠です。深層学習モデルはUAV搭載のエッジシステム上で既に展開されていますが、現実世界のリソース制約下で、異なるモデル構造がどのように性能を発揮するかについての体系的な理解はいまだ不足しています。このギャップに対処するため、本研究は、リソース制約のあるエッジプラットフォーム上でのリアルタイムUAVベース雑草検出のための、展開指向(deployment-oriented)フレームワークを提案します。このフレームワークは、検出精度と計算効率のバランスに焦点を当てつつ、UAVデータ取得、モデル開発、オンデバイス推論を統合します。畳み込みベースのYOLOモデル(v8-v12)およびトランスフォーマーベースのRT-DETRモデル(v1-v2)を含む、多様な最先端の物体検出モデルを評価します。3つのエッジデバイス(Jetson Orin Nano、Jetson AGX Xavier、Jetson AGX Orin)での実験により、モデルおよびハードウェア構成の違いにわたって、精度と推論遅延の間に明確なトレードオフがあることが示されます。その結果、高容量モデルは最大で86.9%のmAP50を達成する一方で高い遅延を伴い、リアルタイム展開を制限します。対照的に軽量モデルは66%-71%のmAP50を実現し、遅延を大幅に低減することで、リアルタイム性能を可能にします。すべてのモデルの中では、RT-DETRv2-R50-Mが改善された効率によって競争力のある精度(79% mAP50)を提供し、最も高速な推論はYOLOv10nが実現します。YOLOv11sおよびRT-DETRv2-R50-Mは、精度と速度の最良のバランスを提供し、リアルタイムUAV展開の有力な候補となります。