Embedding算法入门到精通:拆解腾讯二面必考题,收藏这一篇就够了!

news2026/4/16 6:13:22
面试官RAG 里用的 Embedding 算法有哪些你了解过几代演进‍♂️我Embedding 算法我知道Word2Vec 嘛把词变成向量。面试官Word2Vec 是 2013 年的算法了它每个词只有一个固定向量「吃苹果」和「苹果手机」里的「苹果」向量完全一样多义词都处理不了你怎么拿它做语义检索‍♂️我那就用 BERT 呗BERT 能理解上下文效果肯定好。面试官BERT 做语义检索你每次查询都要把问题和所有候选文档拼在一起跑一遍 BERT百万级知识库跑百万次你的用户等得起吗SBERT 呢SimCSE 呢BGE 呢这些专门为检索设计的 Embedding 模型你一个都没听说过好吧Embedding 算法远不止 Word2Vec下面我把三代演进讲清楚。 简要回答Embedding 算法大致经历了三代演进。第一代是静态词向量以 Word2Vec 和 GloVe 为代表把每个词映射成固定向量但同一个词不管上下文是什么向量永远不变处理不了多义词。第二代是以 BERT 为代表的上下文相关向量同一个词在不同语境下有不同的向量表达能力大幅提升但 BERT 本身输出的是 token 级别的向量两个句子要比较相似度就必须拼在一起跑百万条文档就要跑百万次检索速度完全不可接受。第三代是以 SBERT、SimCSE、BGE 为代表的句子级对比学习 Embedding专门为「两段文本有多相似」这个任务优化能提前把所有文档向量算好存起来查询时只需算一次是 RAG 场景的标配。 详细解析为什么 Embedding 算法要一代代演进要理解各代算法的设计动机先想一个最简单的问题怎么让计算机理解「苹果手机怎么截图」和「iPhone 如何截屏」是同一个问题关键词匹配完全没用因为这两句话没有一个共同的词。早期 NLP 系统为了解决这个问题走向了「把词变成向量」这条路——向量空间里的距离代表语义距离这就是 Embedding 的核心出发点。你可能会想既然都是把文本变成向量搞一套方案不就行了为什么还要一代一代演进原因很简单每一代方案解决了一类问题的同时都暴露出了新的短板。第一代处理不了多义词第二代处理了多义词但在检索场景下慢得无法实用第三代才真正把「语义检索」这件事做到既能用又好用。理解了这个「每一代在补上一代的坑」的逻辑后面三代算法的设计思路就很好懂了。第一代静态词向量Word2Vec / GloVe / FastText先来看第一代算法。它们的核心思路非常朴素用一个词周围的词来预测这个词或者反过来用这个词来预测周围的词。通过大量文本训练语义相近的词自然就会在向量空间里被推到一起。Word2Vec是这一代最有影响力的代表2013 年 Google 提出。它有两种训练方式CBOW用周围词预测中心词和 Skip-gram用中心词预测周围词Skip-gram 在小数据集上效果更好是更常用的方式。训练完之后每个词对应一个固定的向量「国王 - 男人 女人 ≈ 女王」这个著名的类比就是用 Word2Vec 向量做到的当时整个 NLP 圈都为之兴奋。GloVeGlobal Vectors for Word Representation是斯坦福提出的思路和 Word2Vec 类似但更系统直接对整个语料库的词共现矩阵做分解对全局统计信息的利用更充分。实际效果和 Word2Vec 差不多很多场景两者可以互换。FastText是 Facebook 提出的改进解决了一个很实际的问题Word2Vec 处理不了「未登录词」也就是训练集里从没见过的词。你可能会觉得这有什么大不了的但在真实业务里新词、专有名词、网络流行语不断冒出来处理不了新词就意味着检索直接断链。FastText 的解法很巧妙——把词拆成字符级别的 n-gram 子词比如「苹果」会被拆成「苹」「果」「苹果」等子片段每个子片段有自己的向量一个词的向量是其子片段向量的平均。这样遇到没见过的新词只要子片段见过就还能估算出一个合理的向量。这一代算法的共同局限性是两个字静态。每个词只有一个固定向量不管上下文如何。「我吃了苹果」里的「苹果」和「苹果手机发布了」里的「苹果」向量完全相同。很多人以为 Word2Vec 已经理解了语义其实它只是记住了「哪些词经常一起出现」真正的语义理解还差得远。这个致命缺陷直接催生了第二代算法。第二代上下文相关向量ELMo / BERT理解了第一代「一个词永远只有一个向量」的局限第二代算法的改进方向就很明确了让词的向量随上下文动态变化同一个词在不同句子里有不同的向量表示。ELMo2018 年Allen NLP 提出用双向 LSTM 来建模同时从左往右和从右往左扫描句子把两个方向的隐藏状态拼起来作为词的上下文向量。ELMo 是第一个实用的上下文 Embedding当时在多个 NLP 任务上大幅刷新了成绩。BERT2018 年Google 提出用 Transformer 替代 LSTM引入了 Masked Language Model 预训练任务效果全面超越 ELMo成为 NLP 领域最重要的里程碑之一。BERT 用 [CLS] token 来表示整个句子同时看到前后文双向表达能力远超单向模型。但问题来了——BERT 这么强为什么 RAG 检索不用它很多人以为 BERT 效果好就万事大吉其实不是。BERT 有一个在检索场景下极其致命的缺陷要比较两个句子的相似度必须把两个句子拼在一起喂给 BERT让 [CLS] 来做判断。这意味着每次检索都要把查询和每一个候选 chunk 拼在一起跑 BERT百万条文档的知识库就要跑百万次。你可能觉得百万次也不算多吧别忘了 BERT 一次前向传播就要几十毫秒百万次就是好几个小时用户根本等不起。这个问题直接导致了第三代的诞生。第三代句子级对比学习 EmbeddingSBERT / SimCSE / BGE第二代 BERT 虽然语义理解能力强但「必须两两拼接」这个限制让它在检索场景下完全没法用这就引出了第三代的核心理念能不能让每个句子独立生成一个向量然后直接用余弦相似度来比较第三代专门针对「句子相似度」和「语义检索」这个任务优化是 RAG 系统的标配。SBERTSentence-BERT2019 年就是用这个思路解决了 BERT 在检索场景下用不了的问题。它用 bi-encoder 结构两个句子分别独立过 BERT各自得到一个句子级向量然后只用余弦相似度来衡量两个向量的距离。你可能会问这样精度不会下降吗确实会因为两个句子不再交互了模型看不到它们之间的细微关联。但换来的是速度提升了几个数量级——知识库里所有文档的向量可以提前算好存起来每次检索时只需要算一次查询向量然后做余弦相似度就行毫秒级返回。在 RAG 这种「速度优先」的场景里这个取舍完全值得。from sentence_transformers import SentenceTransformermodel SentenceTransformer(all-MiniLM-L6-v2)# 查询和文档分别独立编码不需要拼在一起query 苹果手机怎么截图doc iPhone 截屏方法query_vec model.encode(query) # 检索时实时算doc_vec model.encode(doc) # 提前算好存向量库# 余弦相似度衡量语义距离from sklearn.metrics.pairwise import cosine_similarityscore cosine_similarity([query_vec], [doc_vec])SimCSE2021 年普林斯顿提出进一步提升了句子 Embedding 的质量。核心思路是对比学习把同一句话做两次 dropout 得到两个不同的向量把这两个向量作为正样本对让模型学会把它们拉近同时把同一个 batch 里其他句子的向量作为负样本把它们推远。这个方法训练非常简单不需要人工标注但效果很好。它解决了一个很多人不知道的问题BERT 原生的句子向量存在「各向异性」也就是说向量分布是扭曲的都挤在一个窄小的锥形区域里没有充分利用向量空间。SimCSE 通过对比学习把向量「撑开」了让语义空间变得更均匀。BGEBAAI General Embedding北京智源研究院是目前中文 RAG 场景最常用的开源模型基于对比学习在大规模中英文数据上训练同时支持 bi-encoder 和 reranker 两种形态专门为检索场景优化实测中文语义检索效果超过 OpenAI 的 text-embedding 系列。E5微软是另一个常用的英文对比学习 Embedding效果同样优秀。理解了这三代用一张表来总结它们的演进逻辑世代代表模型核心特点主要局限RAG 适用性第一代Word2Vec、GloVe、FastText词级静态向量无法处理多义词词级非句子级不适用第二代ELMo、BERT上下文动态向量检索时需两两拼接速度极慢不适用于实时检索第三代SBERT、SimCSE、BGE、E5句子级 bi-encoder对比学习精度低于 cross-encoder标配性能和精度平衡最优RAG 场景下基本只考虑第三代模型中文场景首选 BGE英文场景 E5 或 text-embedding-3-small 都是不错的选择。 面试总结回到开头那段面试Embedding 算法这个问题考察的是你对检索层技术的理解深度。回答时要按三代演进的逻辑来讲。第一代静态词向量Word2Vec/GloVe解决了「词变向量」的问题但处理不了多义词。第二代上下文向量BERT解决了多义词的问题但检索时要两两拼接百万级知识库完全没法用。第三代句子级 EmbeddingSBERT/SimCSE/BGE用 bi-encoder 独立编码提前算好向量存起来检索时只算余弦相似度是 RAG 的标配。面试官如果追问「你们项目用的什么模型」你就说中文场景用 BGE在自己的业务数据上做评估选型能讲出这个就有说服力了。学AI大模型的正确顺序千万不要搞错了2026年AI风口已来各行各业的AI渗透肉眼可见超多公司要么转型做AI相关产品要么高薪挖AI技术人才机遇直接摆在眼前有往AI方向发展或者本身有后端编程基础的朋友直接冲AI大模型应用开发转岗超合适就算暂时不打算转岗了解大模型、RAG、Prompt、Agent这些热门概念能上手做简单项目也绝对是求职加分王给大家整理了超全最新的AI大模型应用开发学习清单和资料手把手帮你快速入门学习路线:✅大模型基础认知—大模型核心原理、发展历程、主流模型GPT、文心一言等特点解析✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑✅开发基础能力—Python进阶、API接口调用、大模型开发框架LangChain等实操✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经以上6大模块看似清晰好上手实则每个部分都有扎实的核心内容需要吃透我把大模型的学习全流程已经整理好了抓住AI时代风口轻松解锁职业新可能希望大家都能把握机遇实现薪资/职业跃迁这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2522395.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…