【 LangChain v1.2 入门系列教程】【二】消息类型与提示词工程
系列文章目录【 LangChain v1.2 入门系列教程】【一】开篇入门 | 从零开始跑通你的第一个 AI Agent【 LangChain v1.2 入门系列教程】【二】消息类型与提示词工程【 LangChain v1.2 入门系列教程】【三】工具Tools开发让 Agent 连接外部世界【 LangChain v1.2 入门系列教程】【四】结构化输出让 Agent 返回可预测的结构【 LangChain v1.2 入门系列教程】【五】记忆管理让 Agent 记住对话【 LangChain v1.2 入门系列教程】【六】流式输出 让 Agent 告别“想好了再说”文章目录系列文章目录前言一、 LangChain 的 4 种核心消息类型1. 手动构建消息列表2. llm.invoke() 传入消息历史3.agent.invoke()传入消息历史4.ToolMessage 的传递二、提示词模板ChatPromptTemplate1. 基础用法方式一2. 基础用法方式二3. 基础用法方式三4. 基础用法方式四5、进阶用法MessagesPlaceholder三、系统提示System Prompt1. 系统提示词的设计原则四、 总结前言在上一篇中我们完成了环境搭建并跑通了第一个 AI Agent 。本文将带你深入 LangChain v1.2 的消息机制Messages并学习如何用提示词模板Prompt Templates像搭积木一样构建稳定、可控的对话。一、 LangChain 的 4 种核心消息类型LangChain 使用结构化的消息对象来与聊天模型交互每种消息对应对话中的一个角色消息类型角色作用SystemMessage系统消息给 AI 设定 “人设” 和规则比如 “你是一个资深博客专家”通常放在对话开头。HumanMessage用户消息用户说的话就是直接发给 AI 的提问或指令AIMessageAI 消息AI 回复的话ToolMessage工具消息当 AI 调用某个工具如上一篇中 get_weather后工具返回的结果1. 手动构建消息列表有时候我们需要手动维护把各类历史消息按顺序传回给模型作为上下文参考。例如importosfromdotenvimportload_dotenvfromlangchain.messagesimportAIMessage,HumanMessage,SystemMessagefromlangchain_openaiimportChatOpenAI load_dotenv()# api_key从硅基流动后台获取API_KEYos.getenv(API_KEY)#实例化模型llmChatOpenAI(modelQwen/Qwen3-8B,# 模型名称base_urlhttps://api.siliconflow.cn/v1,# 硅基流动的 API 地址api_keyAPI_KEY,# 你的-api-key)#手动构建对话历史messages[SystemMessage(content你是一位翻译专家将中文翻译成英文。),HumanMessage(content你好世界),AIMessage(contenthello, world),HumanMessage(content我正在写博客),#当前问题]#调用模型responsellm.invoke(messages)print(response.content)#输出Im writing a blog说明我们最初通过系统消息定义ai的角色是一名翻译专家“回答规则是把输入的中文翻译成英文第一轮用户提问“你好世界”ai翻译后回答“hello,world”。第二轮用户提问“我正在写博客”ai翻译后回答“I’m writing a blog”。从该示例中我们能深刻体会SystemMessage系统消息的作用。2. llm.invoke() 传入消息历史LangChain v1.2 我们使用 llm.invoke() 方法传入消息历史获取大模型回复入参有2种类型除了上面示例展示的List[BaseMessage]形式外它还支持字典格式List[dict]例如messages[{role:system,content:你是一位翻译专家将中文翻译成英文。},{role:user,content:你好世界},{role:assistant,content:hell,word},{role:user,content:我正在写博客},]# 调用模型responsellm.invoke(messages)print(response.content)# 输出Im writing a blog注意用户消息也兼容如下写法{“role”: “human”“content”: “你好世界”}3.agent.invoke()传入消息历史当你使用 create_agent() 创建 Agent invoke() 方法通常要求传入一个字典其中必须包含一个 “messages” 键其值为消息列表支持List[BaseMessage]或List[dict]格式例如importosfromdotenvimportload_dotenvfromlangchain.agentsimportcreate_agentfromlangchain.messagesimportAIMessage,HumanMessage,SystemMessagefromlangchain_openaiimportChatOpenAI load_dotenv()# api_key从硅基流动后台获取API_KEYos.getenv(API_KEY)# 实例化模型llmChatOpenAI(modelQwen/Qwen3-8B,# 模型名称base_urlhttps://api.siliconflow.cn/v1,# 硅基流动的 API 地址api_keyAPI_KEY,# 你的-api-key)# 创建Agentagentcreate_agent(modelllm)# 手动构建对话历史messages[SystemMessage(content你是一位翻译专家将中文翻译成英文。),HumanMessage(content你好世界),AIMessage(contenthell,word),HumanMessage(content我正在写博客),]# 调用模型responseagent.invoke({messages:messages})print(response[messages][-1].content)# 输出Im writing a blog从上述示例可以发现agent .invoke() 跟 llm.invoke()返回值不一样它是个字典包含“messages”字段打印下“messages”数据print(response[messages])打印数据如下[SystemMessage(content你是一位翻译专家将中文翻译成英文。,additional_kwargs{},response_metadata{},id9c5700dd-62b4-4e4c-9e03-21d42b307f24),HumanMessage(content你好世界,additional_kwargs{},response_metadata{},id893b5d7f-4555-4d0f-af15-2ad4bb428351),AIMessage(contenthell,word,additional_kwargs{},response_metadata{},id2da1c10d-f2b8-4422-aa5f-3e967abaf704,tool_calls[],invalid_tool_calls[]),HumanMessage(content我正在写博客,additional_kwargs{},response_metadata{},id973de492-98f3-4f2c-97e6-d69c3a076937),AIMessage(contentIm writing a blog.,additional_kwargs{refusal:None},response_metadata{token_usage:{completion_tokens:6,prompt_tokens:48,total_tokens:54,completion_tokens_details:{accepted_prediction_tokens:None,audio_tokens:None,reasoning_tokens:0,rejected_prediction_tokens:None},prompt_tokens_details:None},model_provider:openai,model_name:Qwen/Qwen3-8B,system_fingerprint:,id:019d207edbd5da788a852a998ba5082e,finish_reason:stop,logprobs:None},idlc_run--019d207e-db57-7e13-8cb9-e3e4bb6787c6-0,tool_calls[],invalid_tool_calls[],usage_metadata{input_tokens:48,output_tokens:6,total_tokens:54,input_token_details:{},output_token_details:{reasoning:0}})]可以发现这是完整的消息列表它由你传入的原始 messages 加上 AI 新生成的消息可能还有工具调用产生的消息合并而成。response[“messages”][-1] 就是列表中的最后一条消息。在大多数简单场景下它恰好是 AI 针对最后一个用户输入生成的新回复类型为 AIMessage其 content 属性即为回复文本。4.ToolMessage 的传递当 AI 调用了工具我们需要将工具执行结果以 ToolMessage 形式传回给模型。ToolMessage 除了 content还必须有 tool_call_id以关联对应的工具调用。fromlangchain_core.messagesimportToolMessage# 假设模型调用 get_weather 工具并生成了一个 tool_call_idtool_call_idcall_123# 构造工具返回的消息tool_messageToolMessage(content厦门的天气是晴朗20°C,tool_call_idtool_call_id)# 将 tool_message 添加到消息列表中继续对话messages.append(tool_message)# 然后再次调用模型responsellm.invoke(messages)二、提示词模板ChatPromptTemplate手动构建消息列表虽然直观但不够灵活。LangChain 提供ChatPromptTemplate 允许你定义消息模板动态注入变量重复使用模版。1. 基础用法方式一ChatPromptTemplate.from_template().format_messages() #单角色消息fromlangchain_core.promptsimportChatPromptTemplate# 提示词模版prompt_templateChatPromptTemplate.from_template(你是{role}专家,请用{style}风格回答问题,问题{question})# 格式化提示词messageprompt_template.format_messages(role文学,style幽默,question讲个故事)# 调用模型responsellm.invoke(message)print(response.content)2. 基础用法方式二ChatPromptTemplate.from_template() 链式调用 #单角色消息fromlangchain_core.output_parsersimportStrOutputParser# 提示词模版prompt_templateChatPromptTemplate.from_template(你是{role}专家,请用{style}风格回答问题,问题{question})#链式调用chainprompt_template|llm|StrOutputParser()#StrOutputParser:输出解析器提取纯文本内容# 调用模型contentchain.invoke({role:文学,style:幽默,question:讲个故事})print(content)ps:| 语法是一种类似 Unix 管道的链式操作符用于将前一个组件的输出直接作为后一个组件的输入从而串联起提示词模板、模型和输出解析器等组件形成一条可执行的处理链3. 基础用法方式三ChatPromptTemplate.from_messages().format_messages() #多角色消息# 提示词模版prompt_templateChatPromptTemplate.from_messages([(system,你是一个专业的翻译官把{input_language}翻译成{output_language}。),#系统消息(human,{question}),#用户消息])#格式化消息messagesprompt_template.format_messages(input_language中文,output_language英文,question你好世界)# 调用模型responsellm.invoke(messages)print(response.content)#Hello, world.4. 基础用法方式四ChatPromptTemplate.from_messages() 链式调用 #多角色消息# 提示词模版prompt_templateChatPromptTemplate.from_messages([(system,你是一个专业的翻译官把{input_language}翻译成{output_language}。),#系统消息(human,{question}),#人类消息])chain(prompt_template|llm|StrOutputParser())# StrOutputParser:输出解析器提取纯文本内容# 调用模型contentchain.invoke({input_language:中文,output_language:英文,question:你好世界})print(content)#hellow,world.5、进阶用法MessagesPlaceholder当需要插入不确定数量的历史消息时如多轮对话使用 MessagesPlaceholder动态插入消息列表fromlangchain_core.promptsimportChatPromptTemplate,MessagesPlaceholder#构建占位符消息模版prompt_templateChatPromptTemplate.from_messages([(system,你是一个友好的客服助手。),MessagesPlaceholder(variable_namechat_history),# 这里会插入任意多条历史消息(human,{question})#当前用户问题])# 对话历史history_messages[AIMessage(content您好请问有什么可以帮您),HumanMessage(content我想查一下订单状态。)]chainprompt_template|llm|StrOutputParser()contentchain.invoke({chat_history:history_messages,question:我的订单号是12345})print(content)#您的订单处于待发货状态三、系统提示System Prompt在LangChain v1.2中推荐使用create_agent() 创建智能体方式来调用大模型通过system_prompt参数非常方便设置系统提示SystemMessage系统消息例如#创建agentagentcreate_agent(modelllm,system_prompt你是一位翻译专家将中文翻译成英文#系统提示词)#调用模型responseagent.invoke({messages:[HumanMessage(你叫什么名字)]})print(response[messages][-1].content)#Whats your name?1. 系统提示词的设计原则系统提示词是影响 AI 行为最直接、成本最低的方式。好的系统提示词设计时遵循1角色定义清晰system_prompt 你是一位精通 Python 性能优化的资深工程师擅长识别代码中的瓶颈并给出量化改进建议。 2强制输出格式system_prompt你必须严格按照以下JSON格式回复 { thinking: 思考过程, answer: 最终答案, confidence: 0-1之间的数字 } 只输出JSON不要其他内容。3制定规则system_prompt 你必须遵守以下规则 1. 只使用 Markdown 格式回复。 2. 每条建议前必须加上「⚠️ 风险」或「 建议」。 3. 禁止输出任何未经测试的代码片段。 4. 禁止使用「可能」「大概」等模糊词汇。 4设定清晰边界system_prompt 你是一个医疗信息摘要助手。 - 如果你遇到用户描述的疑似急症如胸痛、呼吸困难必须回答“请立即就医我无法提供诊断。” - 对于其他健康问题你可以总结信息但不得给出具体治疗建议。 5提供示例system_prompt 你是一个数学解题助手输出格式先列出关键步骤再给出最终答案。 示例 用户2 3 × 4 助手 步骤 1. 先算乘法3 × 4 12 2. 再算加法2 12 14 最终答案14 四、 总结通过本文我们从 LangChain 的消息体系入手逐步掌握了以下核心技能理解四种消息角色SystemMessage、HumanMessage、AIMessage、ToolMessage并学会手动构建消息列表让 AI 在对话中“记住”上下文。灵活调用模型无论是直接使用 llm.invoke() 传入消息列表还是通过 agent.invoke() 传入字典格式的消息都能轻松实现多轮对话。告别硬编码借助 ChatPromptTemplate 和 MessagesPlaceholder我们可以像搭积木一样动态构建提示词模板支持变量注入、历史占位让代码更优雅、更易维护。用好系统提示词明确了角色定义、输出格式、边界约束等五大设计原则并通过示例展示了如何写出“指令明确”的优质提示词。当你掌握了消息与提示词这两大基石LangChain 的大门才算真正向你敞开。在下一篇文章中我们将深入 工具调用Tool Calling敬请期待
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2517040.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!