当前位置:   article > 正文

YOLOv10改进 | 注意力篇 | YOLOv10引入ECA注意力机制

YOLOv10改进 | 注意力篇 | YOLOv10引入ECA注意力机制

1.ECA介绍

摘要:最近,通道注意力机制已被证明在提高深度卷积神经网络(CNN)性能方面具有巨大潜力。 然而,大多数现有方法致力于开发更复杂的注意力模块以实现更好的性能,这不可避免地增加了模型的复杂性。 为了克服性能和复杂性权衡的悖论,本文提出了一种高效通道注意(ECA)模块,该模块仅涉及少量参数,同时带来了明显的性能增益。 通过剖析 SENet 中的通道注意力模块,我们凭经验证明避免降维对于学习通道注意力非常重要,适当的跨通道交互可以保持性能,同时显着降低模型复杂性。 因此,我们提出了一种无需降维的局部跨通道交互策略,可以通过一维卷积有效地实现。 此外,我们开发了一种自适应选择一维卷积核大小的方法,确定局部跨通道交互的覆盖范围。 所提出的 ECA 模块高效且有效,例如,我们的模块针对 ResNet50 主干网的参数和计算量分别为 80 vs. 24.37M 和 4.7e-4 GFLOPs vs. 3.86 GFLOPs,性能提升超过 2% 就Top-1准确率而言。 我们以 ResNets 和 MobileNetV2 为骨干,在图像分类、对象检测和实例分割方面广泛评估了我们的 ECA 模块。 实验结果表明,我们的模块效率更高,同时性能优于同类模块。

官方论文地址:https://arxiv.org/pdf

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/煮酒与君饮/article/detail/744387
推荐阅读
相关标签
  

闽ICP备14008679号