【CLIP论文阅读】:基于自然语言监督的通用视觉预训练范式

news2026/5/14 22:04:50
论文信息标题Learning Transferable Visual Models From Natural Language Supervision会议ICML 2021单位OpenAI代码https://github.com/OpenAI/CLIP论文https://arxiv.org/pdf/2103.00020.pdf一、引言传统CV的“题库思维”困局想象一下你花了3个月标注了1000类猫的图像训练出一个准确率99%的猫品种分类器结果老板突然说“再加100类狗”你是不是想原地辞职这就是传统计算机视觉CV的核心痛点——模型只能识别训练时见过的固定类别换个任务就得重新标注、重新训练。传统CV模型就像只会背题库的学生它们在ImageNet这张“1000题大试卷”上考了满分但遇到试卷外的题目比如识别“一只戴着墨镜的柯基在冲浪”就直接懵了。它们学习的不是“什么是狗”这个语义概念而是“ImageNet里狗的像素长什么样”这种虚假相关性。有没有一种模型能像人类一样通过看文字描述就能学会识别新东西2021年OpenAI提出的CLIPContrastive Language-Image Pre-training对比语言-图像预训练给出了答案。它用4亿对互联网上的图文数据训练实现了零样本迁移通俗解释训练时从没见过某个任务的任何样本直接就能做这个任务在30多个CV任务上吊打传统监督模型彻底改变了CV的发展方向。二、CLIP的核心思想让图像和文字“说同一种语言”CLIP的思路简单到离谱既然人类能通过文字描述理解图像那为什么不让模型也这么做它的核心目标是学习一个共同的嵌入空间让语义相似的图像和文本在这个空间里离得近语义不同的离得远。整个过程分为三步如图1所示图1 CLIP整体工作流程来源论文Figure 1对比预训练输入一批图文对让模型学会判断哪张图配哪句话生成零样本分类器把目标类别的名称转成文本比如“一张猫的照片”用文本编码器生成对应的嵌入向量这些向量就是分类器的权重零样本预测把待分类图像输入图像编码器得到嵌入向量和所有文本嵌入计算相似度相似度最高的就是预测类别这个设计有多巧妙传统模型的分类器是固定的1000类就是1000个权重而CLIP的分类器是用自然语言动态生成的。你想识别什么只要写一句话就行完全不需要重新训练模型。三、模型架构与核心公式详解3.1 双塔架构CLIP采用经典的双塔架构通俗解释两个独立的编码器分别处理图像和文本最后把它们的输出映射到同一个空间图像编码器可以是ResNet或者Vision TransformerViT负责把图像转成固定长度的特征向量文本编码器基于Transformer的语言模型负责把文本转成同样长度的特征向量3.2 核心对比损失公式CLIP的灵魂是对称交叉熵损失它让正确的图文对相似度最大化错误的对相似度最小化。公式如下L 1 2 ( L i L t ) \mathcal{L} \frac{1}{2} \left( \mathcal{L}_i \mathcal{L}_t \right)L21​(Li​Lt​)其中L i \mathcal{L}_iLi​图像到文本的交叉熵损失给定图像预测对应的文本L t \mathcal{L}_tLt​文本到图像的交叉熵损失给定文本预测对应的图像单个方向的损失计算如下L i − 1 N ∑ i 1 N log ⁡ exp ⁡ ( I i ⋅ T i τ ) ∑ j 1 N exp ⁡ ( I i ⋅ T j τ ) \mathcal{L}_i -\frac{1}{N} \sum_{i1}^N \log \frac{\exp \left( \frac{I_i \cdot T_i}{\tau} \right)}{\sum_{j1}^N \exp \left( \frac{I_i \cdot T_j}{\tau} \right)}Li​−N1​i1∑N​log∑j1N​exp(τIi​⋅Tj​​)exp(τIi​⋅Ti​​)​公式符号全解释N NN一个批次batch里的图文对数量I i I_iIi​第i ii张图像经过编码器和线性投影后的归一化嵌入向量T i T_iTi​第i ii段文本经过编码器和线性投影后的归一化嵌入向量I i ⋅ T i I_i \cdot T_iIi​⋅Ti​两个向量的点积等价于余弦相似度因为已经归一化τ \tauτ可学习的温度参数通俗解释控制相似度分布的“尖锐程度”τ \tauτ越小模型越关注最相似的负样本训练越严格分子正确图文对的相似度分母第i ii张图像和所有N NN个文本的相似度之和通俗理解这个损失就像一个配对游戏。对于每张图像模型要从N NN个文本里找出它的“真命天子”。损失值越小说明模型找对的概率越高。对称损失意味着不仅要“图找文”还要“文找图”双向监督让模型学得更稳。四、关键技术细节为什么CLIP能成4.1 超大高质量数据集WITCLIP的成功首先归功于4亿对高质量图文数据作者把它命名为WITWebImageText。构建方法很聪明收集维基百科中出现次数≥100次的50万个单词作为基础查询词用这些查询词在互联网上搜索图文对每个查询词最多保留2万对最终得到4亿对数据总词量和训练GPT-2的WebText数据集相当为什么不用现成的数据集论文里对比了YFCC100M1亿张图但过滤后只剩1500万对高质量数据而且标注稀疏。WIT的规模是它的27倍覆盖了更广泛的视觉概念。4.2 对比学习比生成式学习效率高4倍作者一开始尝试了生成式目标让模型根据图像生成文本但发现效率极低。如图2所示图2 不同预训练目标的零样本效率对比来源论文Figure 2基于Transformer的生成式模型学习速度最慢比词袋模型慢3倍词袋预测模型比生成式快3倍CLIP的对比学习模型比词袋模型再快4倍总共快12倍原因分析生成式任务要求模型预测文本的每个单词难度极大而对比任务只需要判断“这张图和这句话配不配”是一个简单的二分类问题模型能更快学到核心的语义对齐关系。4.3 模型缩放越大越强CLIP训练了8个不同大小的模型从最小的ResNet-50到最大的ViT-L/14336px。作者发现零样本性能和计算量呈平滑的对数线性关系——计算量每翻一倍性能就稳定提升。这和GPT系列的缩放规律完全一致证明了自然语言监督的可扩展性。五、震撼的实验结果零样本吊打传统模型5.1 里程碑式的零样本ImageNet准确率最震撼的结果来自ImageNet零样本分类。之前最好的零样本模型Visual N-Grams只能达到11.5%的准确率而CLIP直接干到了76.2%和原始ResNet-50的全监督准确率持平模型aYahooImageNetSUNVisual N-Grams72.411.523.0CLIP98.476.258.5表1 CLIP与Visual N-Grams的零样本准确率对比来源论文Table 1这意味着什么CLIP不需要用ImageNet的128万张标注图像训练只需要用自然语言描述“一张{类别}的照片”就能达到和全监督模型一样的效果。这彻底打破了“CV必须依赖大规模标注数据”的铁律。5.2 27个数据集的全面对比作者在27个不同的CV任务上测试了CLIP包括OCR、动作识别、细粒度分类、地理定位等。结果如图3所示图3 零样本CLIP与ResNet50线性探针在27个数据集的性能对比来源论文Figure 5亮点分析✅CLIP赢了16个数据集在OCRSST2、Hateful Memes、动作识别Kinetics700、UCF101、细粒度汽车分类Stanford Cars等任务上大幅领先✅STL-10数据集达到99.3%准确率创造了新的SOTA而且是零样本❌CLIP输了11个数据集在计数CLEVRCounts、卫星图像EuroSAT、RESISC45、医学图像PatchCamelyon、交通标志GTSRB等任务上表现较差有趣的失败案例CLIP在MNIST手写数字数据集上只有88%的准确率甚至不如直接在原始像素上训练的逻辑回归92.5%。原因很简单WIT数据集里几乎没有手写数字的图像CLIP从来没见过这种“奇怪的数字写法”。这说明CLIP的泛化能力不是万能的它仍然依赖训练数据的分布。5.3 零样本≈4-shot监督学习作者还对比了零样本CLIP和在CLIP特征上训练的few-shot线性分类器。结果发现零样本CLIP的性能相当于4-shot线性分类器而且接近16-shot的最佳结果。这意味着用自然语言告诉模型“这是什么”比给它看4张标注图像还要有效。人类的语言果然是最高效的知识传递方式六、鲁棒性分布偏移下的王者传统CV模型有一个致命弱点对分布偏移极其敏感。比如把ImageNet里的狗换成卡通狗、素描狗模型的准确率就会暴跌。而CLIP在这方面表现惊人如图4所示图4 零样本CLIP与ResNet101在自然分布偏移下的性能对比来源论文Figure 13ResNet101在ImageNet上准确率76.2%但在ImageNet-R艺术风格的ImageNet上只有37.7%暴跌38.5%零样本CLIP在ImageNet上准确率76.2%在ImageNet-R上仍然有88.9%反而提升了12.7%原因分析传统模型学习的是ImageNet里的虚假相关性比如“狗总是出现在草坪上”而CLIP学习的是语义概念本身。不管狗是照片、卡通还是素描只要它符合“狗”这个语义概念CLIP就能识别出来。七、局限性与社会影响7.1 技术局限性CLIP虽然强大但也有明显的短板抽象任务能力弱比如计数、空间推理“球在盒子左边”细粒度分类差区分不同品种的花、飞机型号等分布外数据泛化差比如MNIST手写数字、医学图像需要大量计算最大的ViT-L/14模型需要256张V100训练12天7.2 社会影响CLIP是一把双刃剑正面影响降低了CV的门槛让普通人不用标注数据就能开发CV应用推动了通用视觉模型的发展负面影响社会偏见论文里发现CLIP会把黑人图像更容易分类成“罪犯”“小偷”把女性更容易分类成“保姆”“家庭主妇”滥用风险可以被用于无监督监控、大规模人脸识别等侵犯隐私的场景作者在论文里用了整整一章讨论这些问题呼吁社区关注AI的伦理和安全。八、核心代码实现下面是CLIP核心对比损失的Python实现完全对应论文里的伪代码importnumpyasnpdefclip_loss(image_embeddings,text_embeddings,temperature): CLIP对称交叉熵损失实现 参数: image_embeddings: 图像嵌入形状为[N, d]N是批次大小d是嵌入维度 text_embeddings: 文本嵌入形状为[N, d] temperature: 温度参数τ可学习的标量 返回: loss: 平均损失值 # 步骤1对嵌入向量进行L2归一化这样点积就等于余弦相似度image_embeddingsimage_embeddings/np.linalg.norm(image_embeddings,axis1,keepdimsTrue)text_embeddingstext_embeddings/np.linalg.norm(text_embeddings,axis1,keepdimsTrue)# 步骤2计算所有图文对的相似度矩阵形状为[N, N]logitsnp.dot(image_embeddings,text_embeddings.T)*np.exp(temperature)# 步骤3生成标签正确的配对是对角线元素第i张图对应第i段文本labelsnp.arange(logits.shape[0])# 步骤4计算图像到文本的损失和文本到图像的损失defcross_entropy(logits,labels,axis):# 先计算softmaxexp_logitsnp.exp(logits-np.max(logits,axisaxis,keepdimsTrue))probsexp_logits/np.sum(exp_logits,axisaxis,keepdimsTrue)# 再计算交叉熵return-np.mean(np.log(probs[np.arange(len(labels)),labels]))loss_icross_entropy(logits,labels,axis1)# 图找文loss_tcross_entropy(logits.T,labels,axis1)# 文找图# 步骤5返回平均损失return(loss_iloss_t)/2# 测试代码if__name____main__:N32# 批次大小d512# 嵌入维度image_embnp.random.randn(N,d)text_embnp.random.randn(N,d)tempnp.log(0.07)# 初始温度0.07和论文一致lossclip_loss(image_emb,text_emb,temp)print(fCLIP损失值:{loss:.4f})九、总结与展望CLIP是CV领域里程碑式的工作它的核心贡献可以概括为三点证明了自然语言监督可以训练出通用的视觉模型打破了CV对标注数据的依赖提出了对比学习的图文对齐范式现在所有的多模态大模型LLaVA、BLIP-2、GPT-4V都基于这个思路展示了零样本迁移的强大能力让CV模型从“专用工具”变成了“通用平台”CLIP之后CV进入了“多模态大模型时代”。现在的VLM不仅能识别图像还能理解图像内容、回答问题、生成描述甚至能调用工具完成复杂任务。而这一切都始于2021年OpenAI的这篇论文——它告诉我们当视觉和语言相遇AI才能真正理解这个世界。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2613255.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…