YOLO26改进 - 注意力机制 | Polarized Self-Attention 极化自注意力:高分辨率保持机制优化细节表征,助力小目标检测
前言本文介绍了极化自注意力(PSA)模块及其在YOLO26中的结合应用。PSA模块旨在解决细粒度计算机视觉任务中的像素级回归问题,其融合了极化过滤和增强两个关键设计。极化过滤在通道和空间维度保持高分辨率,减少信息损失;增强采用细粒度回归输出分布的非线性函数。我们将PolarizedSelfAttention模块集成进YOLO26,替换部分原有模块。实验结果表明,PSA能提升标准基线和最新技术的表现,在2D姿势估计和语义分割基准测试中效果显著,展现了其在目标检测领域的应用价值。文章目录:YOLO26改进大全:卷积层、轻量化、注意力机制、损失函数、Backbone、SPPF、Neck、检测头全方位优化汇总专栏链接:YOLO26改进专栏文章目录前言介绍摘要创新点文章链接基本原理Channel-only branchSpatial-only branch核心代码YOLO26引入代码tasks注册步骤1:步骤2配置yolo26-PolarizedSelfAttention.yaml实验脚本结果介绍摘要像素级回归作为细粒度计算机视觉任务中的核心问题,在关键点热图估计与分割掩模生成等应用中具有重要地位。此类回归任务面临显著挑战,主要体现在需在低计算开销条件下对高分辨率输入输出建模长距离依赖关系,以准确估计高度非线性的像素级语义信息。尽管深度卷积神经网络(DCNNs)中的注意力机制已被广泛用于增强长距离依赖建模,但元素特异性注意力机制(如非局部块)存在学习复杂度高且对噪声敏感的问题,而多数简化注意力混合方案则试图在不同任务类型间寻求折衷平衡。针对上述技术瓶颈,本文提出极化自注意力(PSA)模块,该模块融合两项关键设计以实现高质量像素级回归:(1)极化滤波机制:在维持通道与空间注意力计算中高内部分辨率的同时,沿相应维度完全折叠输入张量;(2)增强非线性变换:直接适配典型细粒度回归任务的输出分布特性,如关键点热图的二维高斯分布或二值分割掩模的二维二项分布。PSA模块充分挖掘了其通道专用与空间专用分支的表征潜力,使得顺序与并行布局间仅存在边际性能差异。实验验证表明,PSA模块将标准基线性能提升2至4个百分点,并在二维姿态估计与语义分割基准测试中将最先进技术水平进一步提升1至2个百分点。创新点极化滤波(Polarized filteringPolarized):在通道和空间维度保持比较高的分辨率(在通道上保持C
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2495510.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!