本改进已集成到 YOLOv8-Magic 框架。


最近研究表明,通过在深度卷积神经网络中嵌入注意力模块可以有效地提高网络性能。在这项工作中,提出了一种新的轻量级且有效的注意力方法,名为金字塔挤压注意力(PSA)模块。通过在ResNet的瓶颈块中用PSA模块替换3x3卷积,得到了一种新的表征块,称为高效金字塔挤压注意力(EPSA)块。EPSA块可以轻松地作为即插即用的组件添加到一个成熟的骨干网络中,并且可以实现模型性能的显著提升。因此,在这项工作中通过堆叠这些ResNet风格的EPSA块,开发了一个简单且高效的骨干架构,命名为EPSANet。相应地,所提出的EPSANet能为各种计算机视觉任务提供更强的多尺度表征能力,包括但不限于图像分类、对象检测、实例分割等。在无需复杂配置的情况下,所提出的EPSANet的性能超过了大多数最先进的通道注意力方法。与SENet-50相比,在ImageNet数据集上Top-1准确率提高了



![[算法][差分][延迟相差][leetcode]2960. 统计已测试设备](https://img-blog.csdnimg.cn/img_convert/63ad0aa63915583e006ce0bc9ba4302e.png)















