広告

MobileViTに対するモバイル上の知識蒸留によるエッジAI向け効率的なFew-Shot学習

arXiv cs.CV / 2026/3/30

💬 オピニオンSignals & Early TrendsModels & Research

要点

  • 本論文は、エッジAIデバイス上での効率的なFew-Shot学習を目的としたMobileViTバックボーンに対し、知識蒸留に基づく事前学習手法を提案する。
  • MiniImageNetでの実験により、ResNet12ベースラインに対して1-shotで14%、5-shotで6.7%の精度向上が示される。
  • この手法は、モデルサイズと計算量を大幅に削減し、ResNet12ベースラインに比べてパラメータ数を69%削減し、FLOPsの計算複雑度を88%削減する。
  • Jetson Orin Nanoへのデプロイでは、37%の動的エネルギー消費削減と2.6 msのレイテンシを報告し、実際の省電力・低遅延の利点を実証する。
  • 著者らは総じて、この手法により、制約のあるエッジ環境に適した、実用的で低レイテンシかつエネルギーを意識したFew-Shot学習が可能になると主張している。

要旨: 効率的で適応性のある深層学習モデルは、エッジデバイス上で高効率なモデルが必要とされることに駆動され、深層学習研究における重要な領域です。少数ショット学習は、データが少ない状況(低データ領域)で深層学習モデルを用いることを可能にし、大規模に注釈されたデータセットを収集することが費用的に高い、あるいは現実的でない場合に、実世界の応用で強く求められている能力です。この課題は、特にエッジ環境で関連性が高く、接続性が制限される可能性がある場合、低遅延の応答が必要な場合、またはエネルギー消費制約が重大な場合に該当します。私たちは、エッジコンピューティング向けに設計されたMobileViTバックボーンのための事前学習手法を提案し、評価します。具体的には、大規模な教師モデルの汎化能力を軽量な学生モデルへ転送する知識蒸留を用います。この手法は、MiniImageNetベンチマークにおいて、ResNet12のベースラインと比較して、それぞれ1-shot分類で14%、5-shot分類で6.7%の精度向上を達成しつつ、モデルのパラメータ数を69%削減し、さらにFLOPsで表される計算複雑度を88%削減します。さらに、提案したモデルをJetson Orin Nanoプラットフォームに実装し、電源供給部で直接消費電力を測定したところ、レイテンシが2.6 msである場合に動的エネルギー消費が37%低減することを示しました。これらの結果は、提案手法がエッジAIハードウェア上で少数ショット学習モデルを展開するための有望で実用的な解決策であることを示しています。

広告