LangChain-AI应用开发框架(四)
目录一.LangChain软件包安装二.LangChain能力详解1.本章节环境说明2.目标与内容三.详细过程1.步骤1a.申请API key并配置环境变量b.配置环境变量步骤2:定义大模型a.安装OpenAI包b.定义大模型步骤3定义消息列表步骤4调用大模型步骤5输出解析步骤6链式执行四.引出LangChain相关概念1.Runnable接口2.LangChain Expression Language一.LangChain软件包安装pip install langchainpip install langchain-corepip install langchain-openaipip install langchain-communitypip install langgraphpip install langsmith二.LangChain能力详解1.本章节环境说明2.目标与内容三.详细过程1.步骤1a.申请API key并配置环境变量官网地址:https://platform.openai.com/loginb.配置环境变量步骤2:定义大模型a.安装OpenAI包pip install -U langchain-openaib.定义大模型from langchain_openai import ChatOpenAI model ChatOpenAI(modelgpt-5-mini)步骤3定义消息列表from langchain_core.messages import HumanMessage, SystemMessage messages [ SystemMessage(contentTranslate the following from English into Chinese), HumanMessage(contenthi!), ]步骤4调用大模型result model.invoke(messages) print(result)在调用之前还是那句话(记得开代理)但是,这个openAI可能需要钱(或者海外账户进行充值)这里我们可以采用对应的国内的AI(豆包,千问等大模型)https://bigmodel.cn/我们可以使用智谱进行调用我们在进行配置环境变量的时候,要将其改成ZHIPUAI_API_KEY(这样就能进行远程调用了)from langchain_core.messages import HumanMessage, SystemMessage from langchain_community.chat_models import ChatZhipuAI # 换成国内模型 # 1. 定义模型和你风格完全一样 model ChatZhipuAI( modelglm-4 ) # 2. 定义消息完全和你一样 messages [ SystemMessage(content请帮我进行翻译,由英文翻译成为中文!), HumanMessage(contenthi!I am Tom) ] # 3. 调用大模型完全和你一样 result model.invoke(messages) print(result.content)这边不建议将我们的API_key进行硬编码到代码中content我的名字是小明。 additional_kwargs{} response_metadata{token_usage: {completion_tokens: 6, prompt_tokens: 28, total_tokens: 34}, model_name: glm-4, finish_reason: stop} idrun--019d4c74-c039-7063-8cd2-986056b1700a-0这就是我们接收到的字段步骤5输出解析#4. 定义输出解析 parser StrOutputParser() print(parser.invoke(result))这个输出解析器,只将我们对应的正文进行打印步骤6链式执行# 定义⼤模型 model ChatOpenAI(modelgpt-5-mini) # 定义消息列表 messages [ SystemMessage(contentTranslate the following from English into Chinese), HumanMessage(contenthi!), ] # 定义输出解析器 parser StrOutputParser() # 定义链 chain model | parser # 执⾏链 result chain.invoke(messages) print(result)from langchain_core.messages import HumanMessage, SystemMessage from langchain_community.chat_models import ChatZhipuAI # 换成国内模型 from langchain_core.output_parsers import StrOutputParser # 1. 定义模型和你风格完全一样 #默认从系统环境读取ZHIPU_API_KEY(要提前配置环境变量) model ChatZhipuAI( modelglm-4 ) # 2. 定义消息完全和你一样 #用户消息 HumanMessage #系统提示消息 SystemMessage - 通常作为第一条消息 #AI消息 AIMessage messages [ SystemMessage(content请帮我进行翻译,由英文翻译成为中文!), HumanMessage(contentmy name is xiaoming) ] # 3. 调用大模型完全和你一样 # result model.invoke(messages) # print(result) # print(result.content) #4. 定义输出解析(组件) parser StrOutputParser() # print(parser.invoke(result)) #5. 定义链 #执行链 chain model | parser print(chain.invoke(messages))四.引出LangChain相关概念1.Runnable接口所有能力参考:https://docs.langchain.com/oss/python/langchain/overview#invoke-runnables-in-parallel# 语⾔模型modelmodel ChatOpenAI(modelgpt-5-mini)result model.invoke(messages) # 语⾔模型是 Runnable 接⼝实例允许invoke调⽤ # 输出解析器StrOutputParserparser StrOutputParser()parser.invoke(result) # 输出解析器是 Runnable 接⼝实例允许invoke调用2.LangChain Expression Language#5. 定义链 #执行链 # chain model | parser # chain RunnableSequence(firstmodel,lastparser) chain model.pipe(parser) print(chain.invoke(messages))这个和我们对应的linux中的进程间通信类似的
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2476829.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!