一文读懂 RAG 与嵌入模型:大模型如何实现“读文档、答问题”
微信搜索公众号AI在学获取最新 AI 技术文章与实战教程前言你有没有发现现在的大语言模型不仅能聊天、写文案还能读懂你的文档、帮你查资料比如你提问“公司的报销流程是怎样的”它就能从员工手册中精准找到相关流程又或者你提问“我们和A公司的合同中付款条款是怎么写的”它就能从数十份合同中精准定位到相关内容直接告诉你付款方式、周期和违约条款。这背后的关键技术就是最近大火的 —— RAGRetrieval-Augmented Generation检索增强生成。RAG 本质上是给大语言模型“外挂”了一个知识库而让这个外挂真正运行起来的正是嵌入模型Embedding Model。它负责将文字转化为向量构建语义地图帮助模型“找资料”“看懂上下文”。可以说没有嵌入模型RAG 就无法理解问题、无法匹配内容、无法智能生成。 RAG 是怎么工作的简单来说RAG 就是 先“读资料”把大量文档通过嵌入模型转成向量存入一个向量数据库。 再“找资料”用户每次提问系统把问题转为向量在向量数据库中找“最相关的内容片段”。 最后“回答问题”大模型根据这些上下文再生成回答。整个过程的第一步就依赖嵌入模型。如果嵌入效果不好RAG 检索的内容就会不相关输出的回答就会跑偏。❌What is Retrieval Augmented Generation (RAG)? | DataCamp 什么是嵌入模型嵌入模型的目标是把一段文字变成一个“向量”——一个多维数字数组。向量之间的“距离”代表语义上的相似程度。比如 “蓝牙耳机” → [0.01, -0.03, 0.07, …] “无线耳机” → [0.012, -0.032, 0.068, …]它们向量之间的距离很小说明语义接近。计算机可以通过这些向量实现语义搜索、推荐匹配、文本归类等操作。⚙️ 嵌入模型是怎么工作的嵌入过程可以分为几个步骤 输入文字比如“这款耳机的音质非常棒”。✂️ 分词Tokenization拆成一个个词或字Token。 初始编码每个 Token 转为数字表示。 上下文建模通过神经网络理解词与词的关系。 输出向量返回一个固定长度的向量比如 768 维或 1536 维。这个向量就是这段话的“语义位置”。 嵌入模型在 RAG 中的应用场景 语义检索 用户问题 → 转为向量 → 在向量库中找“最接近的文档段落”。 文档问答系统 给大模型喂“与问题最相关”的语义段落它就能生成精准回答。 多轮对话保持上下文一致性 通过嵌入来判断用户当前问题和过往内容的关联。 企业知识库接入大模型 用嵌入索引企业文件帮助员工快速查阅信息或自动写文档。 实战示例用 OpenAI 嵌入模型做向量生成为了让你更直观地理解嵌入的过程我们来看一个简单的代码示例fromlangchain_openaiimportOpenAIEmbeddings# 初始化模型embeddings_modelOpenAIEmbeddings()# 输入查询embedded_queryembeddings_model.embed_query(如何申请开发票)# 输出前5维print(embedded_query[:5])输出类似[0.0053,-0.0004,0.0388,-0.0030,-0.0090]✨这一串数字就是文字的“向量表示”不同的句子会有不同的向量而语义相近的句子其向量也会“靠得更近”。 小结嵌入模型是 RAG 的“视神经”RAG 的强大之处不仅是能“调用知识”而是能“找到最对的知识”。而这个“找到”的过程全靠嵌入模型的语义理解能力。未来无论你是在做企业文档助手、私有化智能客服、还是个人知识管理嵌入模型都是构建智能系统的第一步。项目源码如果你想看看完整代码实现或亲自运行一遍这里是项目的 GitHub 地址 https://github.com/zhengjie9510/learn-langchain/tree/main
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2415995.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!