02-LangChain简单介绍、RAG开发
一、LangCain1、介绍LangChain由Harrison Chase创建于2022年10月它是围绕LLMs大语言模型建立的一个框架。LangChain自身并不开发LLMs它的核心理念是为各种LLMs实现通用的接口把LLMs相关的组件“链接”在一起简化LLMs应用的开发难度方便开发者快速地开发复杂的LLMs应用。2、功能介绍3、安装pip install langchain langchain-community langchain-ollama dashscope chromadb- langchain: 核心包- langchain-community: 社区支持包提供了更多的第三方模型调用我们用的阿里云千问模型就需要这个包- langchain-ollama: Ollama支持包支持调用ollama托管部署的本地模型- dashscope: 阿里云通义千问的Python SDK- chromadb: 轻量向量数据库后续使用二、RAG1、介绍1.1 LLM存在的问题通⽤的基础⼤模型存在一些问题•LLM的知识不是实时的模型训练好后不具备自动更新知识的能力会导致部分信息滞后•LLM领域知识是缺乏的大模型的知识来源于训练数据这些数据主要来自公开的互联网和开源数据集无法覆盖特定领域或高度专业化的内部知识•幻觉问题LLM有时会在回答中⽣成看似合理但实际上是错误的信息•数据安全性RAGRetrieval-Augmented Generation即检索增强生成为大模型提供了从特定数据源检索到的信息以此来修正和补充生成的答案。可以总结为一个公式RAG 检索技术 LLM提示1.2 RAG工作流程RAG标准流程由索引Indexing、检索Retriever和生成Generation三个核心阶段组成。•索引阶段通过处理多种来源多种格式的文档提取其中文本将其切分为标准长度的文本块chunk并进行嵌入向量化embedding向量存储在向量数据库vector database中。•加载文件•内容提取•文本分割形成chunk•文本向量化•存向量数据库•检索阶段用户输入的查询query被转化为向量表示通过相似度匹配从向量数据库中检索出最相关的文本块。•query向量化•在文本向量中匹配出与问句向量相似的top_k个•生成阶段检索到的相关文本与原始查询共同构成提示词Prompt输入大语言模型LLM生成精确且具备上下文关联的回答。•匹配出的文本作为上下文和问题一起添加到prompt中•提交给LLM生成答案⼯作流程图解RAG标准流程1.3 工作原理简单来说RAG工作分为两条线离线准备线/在线服务线2、向量向量Vector就是文本的 “数学身份证”它把一段文字的语义信息转换成一串固定长度的数字列表让计算机能 “看懂”文字的含义并做相似度计算。简单来说就是让计算机更方便的理解不同的文本内容是否表述的是一个意思。文本嵌入模型如text-embedding-v1通过深度学习等技术从文本提取语义特征并映射为固定长度的数字序列。向量嵌入的过程我们一般选用合适的文本嵌入模型来完成。在向量匹配的过程中如何识别2段文本是否表述相似的含义主要可以通过如余弦相似度等算法来完成。比如下列案例中向量为示例仅描述概念非真实向量•A“如何快速学打篮球”è[0.2, 0.5, 0.8]•B“打篮球怎么学得快”è[0.18, 0.52, 0.79]•C“运动后吃什么好呢”è[0.9, 0.1, 0.2]通过余弦相似度算法可以计算得到A和B相似度0.999789A和C相似度0.361446由此可通过精确的数学计算去匹配2段文本是否描述同一个意思提高语义匹配的效率和精度。•生成向量的维度越多就更好的记录文本的语义特征做语义匹配会更加精准。•更多的向量会在计算、存储和匹配过程中带来更大的压力。选择合适的向量维度需要在精确和性能之间做平衡。一般1536维算是比较好的选择。3、余弦相似度向量的数字序列共同决定了向量在高维空间中的方向和长度.而余弦相似度主要就是撇除长度的影响得到方向的夹角。夹角越小越相似即方向相同。如何体现向量的方向和长度呢以一维向量为例向量[-0.5]、[0.5]、[1]的方向和长度余弦相似度是衡量两个向量方向相似程度的核心算法即判断两段文本语义是否相近。余弦相似度è两个向量的点积÷两个向量模长的乘积以A[0.5, 0.5]、B[0.7, 0.7]、C[0.7, 0.5]、D[-0.6, -0.5]为例•点积两个向量在同维度的乘积之和。•向量AB点积vec_a[0]×vec_b[0] vec_a[1]×vec_b[1] ... vec_a[n]×vec_b[n]•如AB的点积是0.5*0.7 0.5*0.7 0.74•模长单个向量不同维度的平方之和开根号如A的模长是√(0.5*0.5 0.5*0.5)•向量模长||vec|| √(vec[0]² vec[1]² ... vec[n]²)•如向量A的模长√(0.5*0.5 0.5*0.5) √是开根号import numpy as np 计算两个向量的余弦相似度衡量方向相似性剔除长度影响 参数 vec_a (np.array): 向量A vec_b (np.array): 向量B 返回 float: 余弦相似度结果范围[-1,1]越接近1方向越一致 公式 cos_sim (vec_a · vec_b) / (||vec_a|| × ||vec_b||) 拆解 1. 点积vec_a · vec_b vec_a[0]×vec_b[0] vec_a[1]×vec_b[1] ... vec_a[n]×vec_b[n] 2. 模长||vec_a|| √(vec_a[0]² vec_a[1]² ... vec_a[n]²) 3. 模长||vec_b|| √(vec_b[0]² vec_b[1]² ... vec_b[n]²) A: [0.5, 0.5] B: [0.7, 0.7] C: [0.7, 0.5] D: [-0.6, -0.5] def dev_by (vec_a, vec_b): if len(vec_a) ! len(vec_b): print(f两个向量维度不一致无法计算余弦相似度) sum 0 for a,b in zip(vec_a, vec_b): #zip 函数在这里的作用是将两个列表的对应元素配对形成一个元组的迭代器 sum a * b return sum def dev_len (dev): sum 0 for v in dev : sum v * v return np.sqrt(sum) def cosine_similarity(vec_a, vec_b): return dev_by(vec_a, vec_b) / (dev_len(vec_a) * dev_len(vec_b)) def abs_cosine_similarity(vec_a, vec_b): #如果你想对余弦相似度的计算结果取绝对值即忽略方向只关心向量是否共线 # 可以使用 Python 内置的 abs() 函数 return abs(dev_by(vec_a, vec_b) / (dev_len(vec_a) * dev_len(vec_b))) if __name__ __main__: vec_a [0.5, 0.5] vec_b [0.7, 0.7] vec_c [0.7, 0.5] vec_d [-0.6, -0.5] print(ab:, cosine_similarity(vec_a, vec_b)) print(ac:, cosine_similarity(vec_a, vec_c)) print(ad:, cosine_similarity(vec_a, vec_d)) print(*10绝对值*15) print(ab:, abs_cosine_similarity(vec_a, vec_b)) print(ac:, abs_cosine_similarity(vec_a, vec_c)) print(ad:, abs_cosine_similarity(vec_a, vec_d))三、LangChain组件1、大语言模型的使用LangChain目前支持三种类型的模型LLMs大语言模型、Chat Models(聊天模型)、Embeddings Models(嵌入模型.•LLMs:是技术范畴的统称指基于大参数量、海量文本训练的Transformer架构模型核心能力是理解和生成自然语言主要服务于文本生成场景•聊天模型:是应用范畴的细分是专为对话场景优化的LLMs核心能力是模拟人类对话的轮次交互主要服务于聊天场景•文本嵌入模型:文本嵌入模型接收文本作为输入,得到文本的向量.2、流式输出如果需要流式输出结果需要将模型的invoke方法改为stream方法即可。•invoke方法一次型返回完整结果stream方法逐段返回结果流式输出3、聊天模型的使用聊天消息包含下面几种类型使用时需要按照约定传入合适的值•AIMessage:就是AI输出的消息可以是针对问题的回答. (OpenAI库中的assistant角色•HumanMessage:人类消息就是用户信息由人给出的信息发送给LLMs的提示信息比如“实现一个快速排序方法”.(OpenAI库中的user角色•SystemMessage:可以用于指定模型具体所处的环境和背景如角色扮演等。你可以在这里给出具体的指示比如“作为一个代码专家”或者“返回json格式”.(OpenAI库中的system角色《毕业即失业》象牙塔里课陈黄四载空磨纸上枪。招聘会前人似蚁不如外卖送斜阳。注1. 课陈黄直指教材陈旧如发黄古卷暗讽课程脱离产业需求2. 纸上枪化用纸上谈兵典故讥刺高校培养的实操能力如同无用兵器3. 人似蚁以虫豸喻毕业生在招聘会卑微拥挤之态跃然纸上4. 末句送斜阳双关既指外卖员奔波至暮色又喻青春在低端岗位中虚掷from langchain_community.chat_models import ChatTongyi from dotenv import load_dotenv from langchain_core.messages import HumanMessage, AIMessage, SystemMessage load_dotenv(rF:\26_01\AI大模型RAG与Agent智能体项目实战开发\python\RAG_agent\.env) model ChatTongyi(modelqwen3-max) memess [ SystemMessage(content你是一个诗人擅长使用七言绝句风格粉刺挖苦), HumanMessage(content写一首针对现在大学生就业形式学校知识落后就业形式堪忧的粉刺诗), ] res model.stream(inputmemess) for r in res: print(r.content, end,flushTrue)4、消息的简写形式区别和优势在于使用类对象的方式如下是静态的一步到位直接就得到了Message类的类对象简写形式如下是动态的需要在运行时由LangChain内部机制转换为Message类对象好处就在于简写形式避免导包、写起来更简单更重要的是支持由于是动态需要转换步骤所以简写形式支持内部填充{变量}占位可在运行时填充具体值(后续学习提示词模板时用到5、嵌入模型的使用Embeddings Models嵌入模型的特点将字符串作为输入返回一个浮点数的列表向量。在NLP中Embedding的作用就是将数据进行文本向量化。阿里云千问模型访问方式本地Ollama模型访问方式通过langchain_ollama导入OllamaEmbeddings使用其余不变。api小结6、通用Prompts提示词优化在模型应用中非常重要LangChain提供了PromptTemplate类用来协助优化提示词。PromptTemplate表示提示词模板可以构建一个自定义的基础提示词模板支持变量的注入最终生成所需的提示词。标准写法基于chain链的写法基于PromptTemplate类可以得到提示词模板支持基于模板注入变量得到最终提示词。•zero-shot思想下可以基于PromptTemplate直接完成。•few-shot思想下需要更换为FewShotPromptTemplate后续学习
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2479771.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!