Python 批量导出数据库数据至 Excel 文件
简介langchain专门用于构建LLM大语言模型其中提供了大量的prompt模板和组件通过chain(链)的方式将流程连接起来操作简单开发便捷。环境配置安装langchain框架pip install langchain langchain-community其中langchain可以提供了各种大模型语言库选择这里只列举几个例如#chatgptpip install langchain-openai#hugging facepip install langchain-huggingface#千问pip install langchain-qwq1. 让模型跑起来如何让你llm跑起来这里用的是千问来演示案例import osfrom langchain_community.chat_models.tongyi import ChatTongyifrom langchain_core.prompts import ChatPromptTemplatefrom langchain_core.output_parsers import StrOutputParser#这里是你的千问apikeyos.environ[DASHSCOPE_API_KEY] apikeymodel ChatTongyi(modelqwen-plus)prompt ChatPromptTemplate.from_messages([(system, 你是一个精通{topic}的资深技术专家。),(user, 请用三句话解释一下什么是{concept}。)])output_parser StrOutputParser()chain prompt | model | output_parser#文本输出response chain.invoke({topic: Python, concept: 列表})print(response)#分割print(*30)#流式输出for chunk in chain.stream({topic: 人工智能, concept: 神经网络}):print(chunk, end, flushTrue)代码解释整个代码的流程如下创建模型-构建提示词-构建chain链-使用大模型创建模型这一步用不同的模型可能会不同这里利用langchain的千问库创建模型可能会不同model ChatTongyi(modelqwen-plus)#例如用chatgptllm init_chat_model(gpt-4o, model_provideropenai)构建提示词这一步构建利用了langchain库提供提示词模板其中用{}阔起来的在调用时可以动态用字典替换prompt ChatPromptTemplate.from_messages([(system, 你是一个精通{topic}的资深技术专家。),(user, 请用三句话解释一下什么是{concept}。)])各个角色功能如下角色名称 (Role) 对应的类 作用说明system SystemMessage 系统提示词。用于设定 AI 的“人格”、专业背景、行为准则或约束条件。它通常优先级最高决定了后续对话的基调。user HumanMessage 用户消息。代表人类发送的内容。这是模型需要直接回答或处理的问题。ai AIMessage AI 消息。代表模型之前的回复。在构建多轮对话带记忆时需要把模型之前的回复传回去。构建chain链这个是langchain的灵魂这里简单说明后面会发更详细的教学文章chain链的运行流程如下将输入填充prompt-将完整prompt喂给LLM-直接解析返回文本StrOutputParser()这个是langchain提供的文本解析器用于将上面的结果解析为文本output_parser StrOutputParser()chain prompt | model | output_parser使用大模型这里有两种方式直接输出完整的文本response chain.invoke({topic: Python, concept: 列表})print(response)流文本输出打字机for chunk in chain.stream({topic: 人工智能, concept: 神经网络}):print(chunk, end, flushTrue)腹写硕谆
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2471415.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!