ResNet与ViT在图像特征提取中的核心差异:卷积与自注意力机制的比较

news2026/3/14 11:32:44
1. 从“看”图片到“理解”图片两种截然不同的思维方式如果你刚开始接触计算机视觉可能会觉得把一张图片扔进模型然后它就能告诉你图片里是猫是狗这事儿挺神奇的。但模型内部到底是怎么“看”这张图的这背后其实有两种主流的、思路完全不同的“哲学”。一种是我们熟悉的老朋友——以ResNet为代表的卷积神经网络CNN它像是一个经验丰富的画家从画布的局部细节开始一笔一划地勾勒出整体轮廓。另一种则是后起之秀——Vision TransformerViT它更像是一个站在高处俯瞰全局的规划师先把握住画面的整体布局和关系再去审视细节。今天我就来跟你聊聊这两种模型在“特征提取”这个核心任务上的根本差异说白了就是卷积操作和自注意力机制这两大“引擎”到底是怎么工作的。为什么特征提取这么重要你可以把它想象成我们人脑理解世界的过程。我们看到一只猫大脑不会去记忆它每一根毛发的精确像素而是会提取出“尖耳朵”、“长尾巴”、“胡须”这些关键特征。模型也一样它需要从数百万个原始像素中提炼出那些真正有助于区分猫和狗、车和人的“精华信息”。ResNet和ViT都在做这件事但路径截然不同。ResNet依赖的是卷积核在图像上滑动进行局部感知和组合而ViT则把图像打碎成一个个小块Patch然后用自注意力机制让这些小块之间互相“对话”从而建立全局理解。理解了这个核心差异你就能明白为什么有些任务CNN表现更好而另一些任务Transformer开始崭露头角也能在你自己做项目时更明智地做出选择。2. ResNet的“局部工匠”卷积如何一步步构建理解2.1 卷积核像探照灯一样扫描图像的“特征探测器”咱们先深入聊聊ResNet的看家本领——卷积。你可以把一个卷积核想象成一个拿着特定“滤镜”的小探照灯。这个探照灯很小比如只有3x3或5x5像素那么大。它从图像的左上角开始一格一格地向右、向下滑动扫过整张图片。每次这个探照灯停在某个位置它都在干什么呢它把它覆盖的那一小块图像区域比如3x3的9个像素和自己“滤镜”即卷积核的权重上的9个数值进行对应位置的乘法然后把所有乘积结果加起来最后再加上一个叫“偏置”的调整值。这个计算过程就是加权求和。举个例子如果这个卷积核被设计成用来检测“垂直边缘”那么它的权重矩阵中间一列可能是正数两边是负数。当它扫过一片颜色均匀的区域时正负相加结果接近零输出响应就弱当它扫过一个黑白交界处垂直边缘时正数乘以白色高值负数乘以黑色低值求和后就会得到一个很强的正数输出。这个输出值就是该位置存在“垂直边缘”这个特征的强度。我刚开始学的时候总觉得这些权重很神秘。后来才明白它们不是人工设定的而是在训练过程中通过海量图片和反向传播算法自动学出来的。模型通过不断比较自己的预测和真实答案比如这张图是不是猫来调整成千上万个卷积核里的每一个权重和偏置最终让这些“探照灯”学会检测各种有用的特征从最简单的边缘、角点到复杂的纹理如毛皮、木纹再到更高级的部件如眼睛、轮子。2.2 从局部到整体深度网络的层次化抽象单个卷积核只能看到非常局部的信息。但ResNet的巧妙之处在于它的深度和残差连接。一层卷积的输出称为特征图会成为下一层卷积的输入。这样信息就在网络中一层层地传递和加工。第一层卷积可能只能检测到一些边边角角。第二层卷积的“探照灯”在第一层特征图上滑动时它看到的就不再是原始像素了而是由各种边缘组合成的简单图案。通过加权求和它可能学会检测“由几个边缘组成的拐角”或者“特定朝向的纹理片段”。以此类推第三层可能就能检测出“眼睛”或“轮胎”这样的复杂部件更深的层则能组合这些部件最终识别出“猫脸”或“汽车”这样的完整对象。这个过程就像一个精密的流水线每一道工序卷积层都负责提取一种特定层次的特征并将半成品交给下一道工序。残差连接的存在则像是给流水线加了“快捷通道”让梯度信息能更顺畅地回流解决了深度网络难以训练的问题使得构建几十层、上百层的网络成为可能从而具备了极强的局部特征提取和层次化组合能力。这种方式的优点是归纳偏置强它天然地假设特征具有“平移不变性”猫在图片左边还是右边都是猫和“局部相关性”相邻像素关系更紧密。这非常符合自然图像的物理规律所以用相对较少的数据就能学得很好效率很高。3. ViT的“全局谋士”自注意力机制如何建立远程关联3.1 分块与嵌入将图像转化为“单词序列”ViT的思路就非常“离经叛道”了。它完全抛弃了卷积那种渐进式的扫描而是受自然语言处理中Transformer的启发。Transformer处理句子是把句子拆分成一个个单词Token。ViT处理图像也是如法炮制它把一张图片比如224x224的大小均匀地切割成16x16像素的小方块Patch。一张图就被切成了14x14196个小块。接下来是关键一步线性投影。每个16x16256像素的小块被展平成一个256维的向量然后通过一个可训练的全连接层就是一个矩阵乘法映射到一个更高的维度比如768维。这个操作就相当于把每个图像小块编码成了一个“视觉单词”。同时ViT还会加入一个特殊的**[class] token向量以及位置编码**向量。位置编码是为了告诉模型每个小块原本在图像中的位置信息因为打乱序列顺序后Transformer本身是无法感知位置先验的。最终这一串“视觉单词”加上特殊标记就构成了一个序列送进了Transformer编码器。你看这里完全没有卷积操作。特征提取的第一步不是用卷积核去扫描而是通过一个简单的线性变换矩阵乘直接把图像块映射到高维特征空间。这听起来有点粗暴但它的假设是只要模型足够强大它能从这个线性变换开始自己学会一切必要的特征。3.2 自注意力让图像块之间“自由对话”Transformer编码器的核心是多头自注意力机制。这是ViT理解图像的灵魂。什么是自注意力简单说它允许序列中的每一个“视觉单词”图像块去“关注”序列中的所有其他“视觉单词”包括它自己。具体怎么算呢对于每个图像块向量模型会生成三个新的向量查询向量、键向量和值向量。一个图像块A的“查询”会去和所有图像块包括A自己的“键”进行匹配计算得到一组注意力分数。这个分数决定了当处理块A时应该从块B、块C……等其他块那里汲取多少信息。分数高的意味着这两个块关系密切。最后用这些分数作为权重对所有块的“值”向量进行加权求和得到块A新的、融合了全局信息的表示。这个过程是并行发生的。比如一个表示“猫眼睛”的图像块可能会对“猫胡子”、“猫耳朵”的图像块投以高注意力分数而一个表示“天空”的图像块则可能更关注“云朵”和“远处树木”的块。通过多层这样的自注意力层每个图像块的特征表示都融合了图像所有其他部分的信息。这就使得ViT从一开始就具备了全局的感知野能够直接建模图像中任意两个区域之间的长距离依赖关系。我实测下来这种机制在处理需要全局上下文的任务时优势明显。比如要判断一张图片里是“踢足球”还是“打篮球”CNN可能需要从局部到整体慢慢推断而ViT可能通过一个球员脚下的块和远处球门的块之间的强注意力关联瞬间就把握住了场景。4. 核心机制对决卷积与自注意力的本质差异4.1 感知野局部窗口 vs. 全局视野这是两者最根本的差异直接决定了它们“看”世界的方式。卷积的局部性与层次性一个3x3的卷积核其感知野就是3x3。虽然通过堆叠多层后面的层能间接看到更大的区域感受野变大但这种“全局”信息是经过多层局部抽象后的间接信息是递推式获得的。它强于捕捉局部模式如纹理、边缘但建立远距离像素间的直接关联比较困难需要很深的网络。自注意力的全局性与直接性在ViT中从第一层Transformer块开始自注意力机制理论上就能让每个图像块“看到”所有其他图像块。它的感知野就是整张图片。这种全局视野是直接建立的非常适合捕捉图像中分散区域之间的语义关系比如判断一个手持的物体是不是遥控器需要关联手和物体的块。用一个生活类比分析一幅世界地图。CNN方式你先拿起放大镜仔细看北京城的街道布局局部特征然后逐步拉远视角看华北平原的地形区域特征再看整个中国的轮廓全局特征。你是自下而上逐步构建认知。ViT方式你先把地图切成许多小方格。然后你拿起代表“北京”的方格同时去查阅“天津”、“上海”、“长江”、“珠三角”这些方格的信息直接分析它们与“北京”方格的关系经济联系、地理距离等。你是以一种关联网络的方式同时处理所有信息。4.2 参数与计算共享权重 vs. 动态权重卷积的参数共享同一个卷积核的权重在图像的所有位置是共享的。这意味着无论探照灯扫到左上角还是右下角它用的都是同一套“滤镜”。这极大地减少了参数量是CNN高效和具备平移不变性的关键。但缺点是它对所有位置“一视同仁”缺乏处理位置特异性模式的能力。自注意力的动态计算自注意力机制本身没有可学习的“卷积核”权重。它的“注意力权重”是在前向传播过程中根据当前输入序列动态计算出来的。对于不同的输入图片同一个图像块与其他块的关联权重是完全不同的。这使得它无比灵活能自适应地关注与当前任务最相关的部分。但代价是计算量巨大因为需要计算所有块对之间的关联计算复杂度随序列长度图像块数量的平方增长。4.3 归纳偏置强先验 vs. 弱先验这是理解两者数据需求差异的关键。CNN的强归纳偏置卷积操作内置了“局部性”和“平移等变性”的强假设。这非常契合自然图像的统计规律相当于给了模型一个很好的“起步指南”。因此CNN在数据量相对较少时也能通过这种先验知识学得不错泛化能力强。ViT的弱归纳偏置除了最初切分图像块和加入位置编码ViT的架构本身对图像数据几乎没有做任何假设。它没有内置“图像中相邻像素相关”的概念一切都靠数据驱动从海量数据中自己去学习图像的结构。这给了它巨大的模型容量和灵活性但也意味着它是个“数据饥渴”型模型。在大规模数据集如JFT-300M, ImageNet-21K上预训练后ViT能爆发出惊人的性能但在小数据集上它很容易过拟合表现往往不如CNN。下表可以帮你快速梳理两者的核心区别特性维度ResNet (卷积神经网络)ViT (Vision Transformer)核心操作卷积 (局部加权求和)自注意力 (全局关联计算)感知野局部起始通过深度堆叠间接扩大从第一层起即为全局特征提取顺序从局部特征到全局语义 (自底向上)直接建立全局关联再细化局部 (整体优先)关键归纳偏置平移不变性、局部性几乎无主要依赖位置编码数据需求相对较少中等规模数据即可表现良好非常庞大依赖大规模预训练计算效率高参数共享计算高效较低注意力计算复杂度随序列长度平方增长擅长任务局部纹理敏感任务、数据量有限的任务需要长距离依赖建模的任务、大规模数据任务5. 实战场景如何根据你的任务选择模型理论说了这么多到底该怎么选呢这得看你的具体任务、数据情况和资源约束。我结合自己踩过的坑给你一些实在的建议。5.1 何时优先考虑ResNet如果你的项目符合以下特征ResNet家族如ResNet50, ResNet101通常是更稳妥、更高效的选择数据集规模中等或偏小比如你自己收集的几万张甚至几千张图片的专业领域数据集。CNN的强归纳偏置能防止过拟合让你在有限数据上得到可用的模型。任务强依赖局部细节例如细粒度图像分类区分不同品种的狗或鸟、纹理识别判断面料材质、木材种类、医学图像分析检测细胞层面的微小病变。卷积核对于局部模式的捕捉能力在这些任务上依然是利器。计算资源有限需要在移动端、嵌入式设备或实时性要求高的场景下部署。CNN模型尤其是经过剪枝、量化优化的版本在计算效率和内存占用上通常更有优势。作为强大的特征提取器在很多下游任务如图像检索、目标检测的骨干网络中使用在ImageNet上预训练好的ResNet作为特征提取器是一个久经考验、效果稳定的基线方案。提示对于大多数工业界的计算机视觉落地项目尤其是在数据并非海量、且对推理速度有要求的情况下基于CNN的模型包括ResNet及其各种变体仍然是绝对的主流和首选。5.2 何时可以尝试ViT当你的项目具备以下条件时可以考虑挑战ViT它可能会带来性能突破拥有海量训练数据要么你自己有数百万甚至上亿级别的标注数据要么你可以利用大规模的自监督预训练如MAE, DINO等框架在海量无标签数据上先训练一个强大的ViT backbone。这是发挥ViT潜力的前提。任务需要全局上下文理解例如场景分类判断是教室还是办公室、图像描述生成需要理解图中物体之间的关系、某些类型的图像分割需要利用图像整体语义来指导局部分类。ViT的全局注意力机制在这里能大显身手。追求SOTA性能且资源充足在算力多卡GPU/TPU和训练时间不设限的学术研究或大型科技公司的项目中采用大规模预训练的ViT或更先进的Swin Transformer等模型刷榜各类竞赛是常见操作。探索多模态融合如果你在做图文跨模态任务如图像描述、视觉问答ViT的Transformer架构与处理文本的BERT/GPT等模型同源在特征对齐和融合设计上会更为自然和统一。5.3 混合架构与未来趋势当然世界不是非黑即白的。现在很多顶尖模型走的是“融合”路线取两者之长。比如Swin Transformer它引入了“局部窗口注意力”和“跨窗口移动”的机制既保留了Transformer的全局建模能力又像CNN一样具有层次化结构和局部性先验同时计算复杂度也降到了线性。还有ConvNeXt它“现代化”了CNN的设计借鉴了Transformer的一些训练技巧和架构思想让纯CNN模型的表现追平甚至超越了当时的ViT。所以在实际选择时你不必拘泥于“纯CNN”或“纯ViT”。可以多关注这些混合架构或改进型模型。我的经验是先从成熟的ResNet基线开始快速验证任务可行性。如果效果遇到瓶颈并且分析发现任务确实对长距离依赖敏感同时你又有足够的数据和算力那么升级到Swin Transformer或ConvNeXt这类模型是一个不错的进阶路径。技术发展很快但理解卷积和自注意力这两种基础机制的核心思想能让你在面对任何新模型时都能快速抓住它的精髓。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2410959.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…