要旨: 自動運転車などの現代的なアプリケーションでは、リアルタイムの画像およびビデオ処理のために、リソース制約のあるエッジデバイスへ深層学習アルゴリズムを展開する必要があります。しかし、これらのデバイス上でのさまざまな物体検出モデルの効率性と性能については十分に理解されていません。本論文では、YOLOv8(Nano, Small, Medium)、EfficientDet Lite(Lite0, Lite1, Lite2)、およびSSD(SSD MobileNet V1, SSDLite MobileDet)を含む最先端の物体検出モデルを評価します。これらのモデルを、TPUアクセラレータの有無に関わらず、Raspberry Pi 3, 4, 5のような普及しているエッジデバイス上にデプロイし、エネルギー消費量、推論時間、平均適合率(Mean Average Precision; mAP)といった主要な性能指標を収集しました。得られた結果は、SSD MobileNet V1のような低いmAPのモデルはより省エネルギーで推論が高速である一方、YOLOv8 Mediumのような高いmAPのモデルは一般により多くのエネルギーを消費し推論が遅いことを示しています。ただし、TPUのようなアクセラレータを使用する場合には例外があります。エッジデバイスの中では、待機時のエネルギー消費量が最も高いにもかかわらず、Jetson Orin Nanoがリクエスト処理の面で最速かつ最も省エネルギーな選択肢として際立っています。これらの結果は、エッジデバイス上に深層学習モデルを展開する際に、精度、速度、エネルギー効率のバランスを取る必要性を強調しており、アプリケーションに適したモデルやデバイスを選択する実務家および研究者にとって有益な指針を提供します。
エッジコンピューティング端末向けにおける物体検出ディープラーニングモデルのベンチマーク
arXiv cs.LG / 2026/5/1
💬 オピニオンDeveloper Stack & InfrastructureModels & Research
要点
- 本論文は、YOLOv8、EfficientDet Lite、SSDといった最先端の物体検出モデルについて、リソース制約のあるエッジ基盤上での性能を評価します。
- 精度が低いモデル(例:SSD MobileNet V1)は一般に、推論が速く消費電力も抑えられる一方、高精度モデル(例:YOLOv8 Medium)は通常より多くのエネルギーを消費し、推論が遅くなる傾向が示されました。
- TPUのようなアクセラレータの利用によりトレードオフが変化し、条件によっては例外も観測されています。
- テストした端末の中では、Jetson Orin Nanoが最速かつ最もエネルギー効率の高いリクエスト処理を示した一方で、アイドル時の消費電力が最も高い点が特徴です。
- mAP(精度)、レイテンシ、消費エネルギーのバランスを取りながら、モデルとエッジ端末の選定を行うための実務的な指針を提供しています。




