LeYOLO, New Scalable and Efficient CNN Architecture for Object Detection

2024年06月20日
  • 简介
    在深度神经网络中,计算效率对于物体检测至关重要,尤其是随着新模型将速度置于高效计算(FLOP)之上,这种情况在嵌入式和移动导向的AI物体检测应用中有所落后。本文关注于基于FLOP的神经网络架构设计选择,提出了几种优化方案,以增强基于YOLO的模型的效率。首先,我们介绍了一种受倒置瓶颈启发的高效骨干网络缩放和信息瓶颈原理的理论见解。其次,我们提出了快速金字塔架构网络(FPAN),旨在促进快速的多尺度特征共享,同时减少计算资源。最后,我们提出了一种解耦网络内部网络(DNiN)检测头,旨在为分类和回归任务提供快速而轻量级的计算。在这些优化的基础上,并利用更高效的骨干网络,本文为物体检测和以YOLO为中心的模型提供了一个名为LeYOLO的新的缩放范式。我们的贡献在各种资源限制下始终优于现有模型,实现了前所未有的准确性和FLOP比率。值得注意的是,LeYOLO-Small在仅有4.5 FLOP(G)的情况下,在COCOval上实现了38.2%的竞争性mAP得分,相对于最新的YOLOv9-Tiny模型,计算负载降低了42%,同时实现了类似的准确性。我们的新型模型系列实现了以前未曾达到的FLOP-准确性比率,提供了从超低神经网络配置(<1 GFLOP)到高效但要求较高的物体检测设置(>4 GFLOP)的可扩展性,对应0.66、1.47、2.53、4.51、5.8和8.4 FLOP(G)的25.2、31.3、35.2、38.2、39.3和41 mAP。
  • 作者讲解
  • 图表
  • 解决问题
    本文旨在解决嵌入式和移动端AI目标检测应用中的计算效率问题,提出了一种基于FLOP的神经网络架构设计选择和优化方案,称为LeYOLO。
  • 关键思路
    本文提出了三个优化方案:灵活的骨干网络缩放、快速金字塔架构网络和分离的网络内部网络检测头,以提高计算效率。LeYOLO模型家族可以实现从超低神经网络配置到高效但要求高的目标检测设置的可扩展性。
  • 其它亮点
    本文的实验表明,LeYOLO模型家族在各种资源限制下均表现出色,其FLOP与精度的比例达到了前所未有的水平。值得关注的是,LeYOLO-Small在仅有4.5 FLOP(G)的情况下,就达到了38.2%的竞争性mAP得分,相比最新的YOLOv9-Tiny模型,计算负载降低了42%,而精度相当。
  • 相关研究
    与本文相关的研究包括:YOLO系列模型、目标检测中的计算效率优化方法等。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问