你的Agent为什么总是“胡言乱语”?问题出在哪?

news2026/4/14 3:20:26
你的Agent为什么总是“胡言乱语”?问题出在哪?关键词:大语言模型 Agent 幻觉 检索增强生成 思维链 约束提示工程 对齐摘要:本文从“Agent胡言乱语”这一日常用户痛点切入,像剥洋葱一样一层一层揭开问题的本质——大语言模型的“幻觉(Hallucination)”与Agent构建链路中各环节的偏差叠加。文章先通过生活中的“外卖点单员幻觉”故事引入核心概念,再拆解幻觉产生的底层原理(包括LLM的概率生成机制、训练数据的局限性等)、Agent构建全链路的偏差源(意图理解偏差、工具调用偏差、知识整合偏差等),然后用Mermaid流程图梳理Agent从“感知需求”到“输出结果”的完整过程,用Python代码实现一个简单的带幻觉检测的RAG(检索增强生成)Agent,用数学模型量化分析幻觉发生的概率,最后结合实际场景(客服Agent、法律Agent、教育Agent)给出解决方案,提出未来的发展方向与挑战,让读者从“只会抱怨Agent胡言乱语”变成“能定位问题、甚至能动手优化简单Agent”的入门级AI开发者。背景介绍目的和范围目的让普通用户明白:“Agent胡言乱语”不是“AI故意骗人”,而是有技术原因的,以后遇到这类问题可以用简单的方法(比如给Agent加明确的限定词、让它列出参考来源)初步排查;让入门级AI开发者掌握:Agent构建全链路中可能导致“胡言乱语”的所有环节,能定位具体的问题点,还能动手实现一个带基础幻觉检测的RAG Agent;让中高级AI从业者思考:目前主流的幻觉缓解方法有哪些局限性,未来如何从“模型对齐”“架构优化”“工具链完善”三个维度系统性地解决Agent的“胡言乱语”问题。范围本文的研究范围主要是基于大语言模型(LLM)的任务型Agent——这类Agent不是“只会聊天的机器人”,而是能帮用户完成具体任务的助手,比如订机票、查资料、写代码、做法律咨询。本文不讨论的内容:多模态Agent(比如能处理图片、视频的Agent)的“胡言乱语”问题;专用小模型Agent(比如只针对某个特定工厂的生产数据训练的Agent)的“胡言乱语”问题;生成式AI艺术(比如Midjourney、Stable Diffusion)的“画错细节”问题——虽然这类问题也常被称为“幻觉”,但原理和基于LLM的任务型Agent完全不同。预期读者普通AI用户:经常使用ChatGPT、Claude、豆包等工具,遇到过“Agent胡言乱语”的情况,想知道为什么;入门级AI开发者:刚接触大语言模型,想自己动手做一个Agent,怕遇到“胡言乱语”的问题;中高级AI从业者:已经在做Agent相关的项目,想系统性地优化Agent的输出质量;AI爱好者:对大语言模型的原理和Agent的构建感兴趣,想学习一些专业知识。文档结构概述本文的结构像“看病的流程”:挂诊台(背景介绍):先确认“患者”是谁(任务型Agent),“病情”是什么(胡言乱语),“看病的目的”是什么;问诊室(核心概念与联系):用生活中的故事引出“幻觉”“意图理解”“工具调用”“知识整合”等核心概念,解释它们之间的关系,给出文本示意图和Mermaid架构图;检查室(核心算法原理 具体操作步骤):先检查“大脑(LLM)”为什么会产生幻觉——概率生成机制、训练数据的局限性,再检查“手脚(工具链)”“眼睛(感知系统)”“嘴巴(输出系统)”为什么会出问题——意图理解偏差、工具调用偏差、知识整合偏差,然后给出“缓解幻觉”“定位偏差”的具体操作步骤;检验科(数学模型和公式 详细讲解 举例说明):用数学模型量化分析幻觉发生的概率,比如“LLM生成下一个token的概率公式”“幻觉检测的准确率公式”;药房(项目实战:代码实际案例和详细解释说明):给读者一个“药方”——用Python实现一个带基础幻觉检测的RAG Agent,包括环境搭建、源代码实现、代码解读、测试用例;康复科(实际应用场景):告诉读者“这个药方怎么用在不同的病人身上”——客服Agent、法律Agent、教育Agent的具体优化方案;体检中心(工具和资源推荐):给读者推荐一些“体检工具”——幻觉检测工具、RAG框架、提示工程工具;未来诊室(未来发展趋势与挑战):告诉读者“未来的医生会怎么治这个病”——模型对齐技术的发展、Agent架构的优化、工具链的完善,以及可能遇到的挑战;出院小结(总结:学到了什么?):总结本文的主要内容,再次用通俗易懂的语言强调核心概念;家庭作业(思考题:动动小脑筋):给读者留一些“家庭作业”,鼓励他们进一步思考和应用所学知识;在线问答(附录:常见问题与解答):解答读者可能遇到的常见问题;参考书目(扩展阅读 参考资料):给读者推荐一些“专业书籍”和“论文”。术语表核心术语定义Agent(智能体):能感知环境、做出决策、执行动作、完成特定任务的计算机程序——本文主要指基于大语言模型的任务型Agent;幻觉(Hallucination):大语言模型或Agent生成的听起来合理、但实际上不符合事实、没有依据的内容——比如Agent告诉用户“2024年巴黎奥运会的吉祥物是一只猫”,但实际上2024年巴黎奥运会的吉祥物是“弗里吉”(Phryge);大语言模型(LLM):基于Transformer架构,用海量文本数据训练出来的,能理解和生成人类语言的概率模型——比如GPT-4、Claude 3、文心一言、通义千问;检索增强生成(RAG):一种缓解LLM幻觉的方法——先从知识库中检索出与用户问题相关的文档,再让LLM基于这些文档生成答案;思维链(Chain of Thought, CoT):一种提示工程方法——让LLM在生成最终答案之前,先一步步地思考问题的解决过程,这样可以提高答案的准确性;约束提示工程:一种提示工程方法——给LLM加一些明确的限定词,比如“只能用知识库中的内容回答”“如果不知道答案,就说‘我不知道’”;对齐(Alignment):让大语言模型或Agent的行为符合人类的价值观、意图和目标——比如让Agent不要生成有害的内容,不要胡言乱语。相关概念解释Token(词元):大语言模型处理文本的基本单位——可以是一个字、一个词、一个标点符号,或者它们的组合;Transformer架构:大语言模型的核心架构——由编码器(Encoder)和解码器(Decoder)组成,或者只有解码器(比如GPT系列),或者只有编码器(比如BERT系列);注意力机制(Attention Mechanism):Transformer架构的核心——让模型在处理某个词元的时候,能够关注到文本中其他相关的词元;提示工程(Prompt Engineering):通过设计合适的提示词(Prompt),来引导大语言模型生成符合要求的内容;知识库(Knowledge Base):存储结构化或非结构化知识的数据库——比如维基百科、企业的内部文档、法律法规库;工具调用(Tool Calling):让大语言模型调用外部工具(比如搜索引擎、计算器、天气API、订机票API)来获取信息或执行动作;幻觉检测(Hallucination Detection):检测大语言模型或Agent生成的内容是否符合事实、是否有依据的技术。缩略词列表缩略词英文全称中文全称LLMLarge Language Model大语言模型Agent-智能体RAGRetrieval-Augmented Generation检索增强生成CoTChain of Thought思维链Token-词元APIApplication Programming Interface应用程序编程接口NLPNatural Language Processing自然语言处理MMLUMassive Multitask Language Understanding大规模多任务语言理解GSM8KGrade School Math 8K小学数学8K题数据集核心概念与联系故事引入:外卖点单员的“幻觉”假设你住在北京朝阳区,今天晚上想吃火锅,于是给你家楼下的“张记火锅外卖点单员”小李发了一条微信:“小李,帮我订一份你们家的双人火锅套餐,不要辣,不要香菜,不要葱花,送到我家——对了,我家地址是北京市朝阳区望京SOHO T3-1201室,50分钟内送到可以吗?”小李收到微信后,给你回了一条消息:“好的王总,已经帮您订好了双人麻辣火锅套餐,加了两份香菜两份葱花,送到您家北京市海淀区中关村软件园1号楼-101室,预计30分钟内送到!”你看到这条消息后,是不是特别生气?——小李犯了几个错误:把你的姓氏写错了:你明明是“李总”(假设),小李写成了“王总”;把套餐的口味写错了:你明明说“不要辣”,小李写成了“麻辣”;把套餐的配菜写错了:你明明说“不要香菜不要葱花”,小李写成了“加了两份香菜两份葱花”;把地址写错了:你明明说“北京市朝阳区望京SOHO T3-1201室”,小李写成了“北京市海淀区中关村软件园1号楼-101室”;把送达时间写错了:你明明说“50分钟内送到”,小李写成了“30分钟内送到”。为什么小李会犯这么多错误呢?——你可能会想:小李太粗心了:没仔细看你的微信;小李记忆力不好:记不住你说的那么多要求;小李对业务不熟悉:不知道你们家的地址;小李故意的:想报复你上次投诉他送慢了。但如果小李是一个基于大语言模型的外卖点单Agent呢?——他犯这些错误的原因就不是“粗心”“记忆力不好”“业务不熟悉”“故意的”,而是有技术原因的:把姓氏写错了:可能是Agent的“意图理解模块”出了问题——没识别出你是“李总”,而是从训练数据中随机选了一个常见的姓氏“王总”;把套餐的口味和配菜写错了:可能是Agent的“幻觉模块”出了问题——训练数据中“双人火锅套餐”通常是“麻辣”的,通常会“加香菜加葱花”,所以Agent就“想当然”地生成了这些内容;把地址写错了:可能是Agent的“记忆模块”出了问题——或者Agent根本没有“记忆模块”,而是从训练数据中随机选了一个常见的地址“北京市海淀区中关村软件园1号楼-101室”;把送达时间写错了:可能是Agent的“工具调用模块”出了问题——没调用外部的“配送时间估算API”,而是从训练数据中随机选了一个常见的送达时间“30分钟内送到”。你看,Agent的“胡言乱语”和人类的“犯错误”虽然表现形式相似,但本质原因完全不同——人类的“犯错误”可能是因为“粗心”“记忆力不好”“情绪不好”,而Agent的“胡言乱语”是因为技术上的局限性,比如“概率生成机制”“训练数据的局限性”“架构设计的不合理性”。接下来,我们就用这个“外卖点单员的幻觉”故事,来引出本文的核心概念。核心概念解释:像给小学生讲故事一样核心概念一:什么是基于LLM的任务型Agent?生活中的例子你可以把基于LLM的任务型Agent想象成一个**“超级智能的机器人秘书”**——这个秘书有几个特点:会听人话:能听懂你说的中文、英文、日文等各种语言;会想问题:能一步步地思考问题的解决过程;会用工具:能用计算器算数学题,能用搜索引擎查资料,能用天气API查明天的天气,能用订机票API订机票;会记东西:能记住你之前说过的话,比如你的地址、你的口味、你的生日;会做事情:能帮你完成具体的任务,比如订火锅外卖、写邮件、安排日程、辅导孩子写作业。但这个“超级智能的机器人秘书”也有一个缺点——有时候会“胡言乱语”,比如告诉你“2024年巴黎奥运会的吉祥物是一只猫”,或者帮你订了一份“麻辣火锅套餐加香菜加葱花”。专业定义基于LLM的任务型Agent是一种以大语言模型为核心大脑,结合感知系统、记忆系统、工具系统、决策系统、执行系统、输出系统构建的,能感知环境、理解用户意图、调用外部工具、整合多源信息、做出合理决策、执行特定动作、完成用户指定任务的计算机程序。核心概念二:什么是Agent的“胡言乱语”?——幻觉的定义与分类生活中的例子你可以把Agent的“胡言乱语”想象成一个“爱吹牛的小朋友”——这个小朋友有几个特点:说的话听起来很合理:比如他告诉你“我昨天去月球上玩了,还摘了一颗星星回来”——听起来好像真的一样,但实际上根本不可能;说的话没有事实依据:比如他告诉你“我们班的小明数学考了100分”——但实际上小明数学只考了50分;说的话前后矛盾:比如他先告诉你“我今年8岁”,然后又告诉你“我去年10岁”。专业定义Agent的“胡言乱语”在学术上被称为**“幻觉(Hallucination)”——是指Agent生成的听起来语法正确、逻辑连贯、符合人类语言习惯,但实际上不符合客观事实、没有可靠的知识依据、或者与用户提供的上下文/Agent的记忆/外部工具返回的结果相矛盾的内容**。幻觉的分类根据幻觉的来源,我们可以把Agent的幻觉分为三类:LLM原生幻觉:由Agent的核心大脑——大语言模型本身产生的幻觉,比如Agent告诉你“2024年巴黎奥运会的吉祥物是一只猫”;输入偏差幻觉:由用户提供的上下文不清晰、不完整、有歧义,或者Agent的感知系统理解错了用户的意图产生的幻觉,比如你说“帮我订一份火锅套餐”,但没说清楚是“单人”还是“双人”,是“麻辣”还是“不辣”,Agent就“想当然”地帮你订了一份“双人麻辣火锅套餐”;整合偏差幻觉:由Agent的记忆系统、工具系统、决策系统、整合系统产生的幻觉,比如Agent从知识库中检索出了两篇文档,一篇说“2024年巴黎奥运会的吉祥物是弗里吉”,另一篇说“2024年巴黎残奥会的吉祥物也是弗里吉”,但Agent整合的时候出错了,告诉你“2024年巴黎奥运会的吉祥物有两个,一个是弗里吉,一个是一只猫”。根据幻觉的严重程度,我们可以把Agent的幻觉分为两类:轻度幻觉:对用户的任务影响不大的幻觉,比如Agent把你的姓氏写错了,或者把送达时间写错了5分钟;重度幻觉:对用户的任务影响很大,甚至会给用户造成损失的幻觉,比如Agent帮你订了一份“双人麻辣火锅套餐加香菜加葱花”送到了错误的地址,或者Agent告诉你“这个药物可以治疗癌症”,但实际上这个药物只是一个保健品。核心概念三:什么是概率生成机制?——LLM产生幻觉的根本原因之一生活中的例子你可以把大语言模型的概率生成机制想象成一个**“猜字谜游戏”**——这个游戏的规则是这样的:给你看一句话的前几个字,比如“今天天气真____”;让你从一个“字库”(里面有所有的中文汉字、标点符号、英文单词等)中选一个最有可能的字填在横线上;填好之后,再把你填的字加进去,变成“今天天气真好____”,然后再让你选下一个最有可能的字;重复这个过程,直到你觉得这句话已经说完了。在这个游戏中,你会怎么选呢?——你可能会选“好”“热”“冷”“晴朗”等常见的字,因为这些字出现在“今天天气真____”后面的概率最高;你不太可能选“猫”“狗”“桌子”“椅子”等不常见的字,因为这些字出现在“今天天气真____”后面的概率最低。大语言模型的概率生成机制和这个“猜字谜游戏”几乎一模一样——唯一的区别是:大语言模型的“字库”更大(里面有几千万甚至几亿个token),大语言模型选字的依据是“海量文本数据的统计规律”,而不是“人类的常识”。专业定义大语言模型的概率生成机制是指:大语言模型在生成文本的时候,是一个token一个token地生成的——每生成一个token,模型都会根据之前生成的所有token(包括用户输入的上下文),从一个预定义的词表(Vocabulary)中计算出每个token出现的概率,然后根据概率选择一个token(可以是“选概率最高的token”,也可以是“根据概率随机选一个token”),再把这个token加进去,继续生成下一个token,直到生成一个“结束标记(EOS Token)”为止。用数学公式表示的话,就是:P(w1,w2,…,wn)=∏i=1nP(wi∣w1,w2,…,wi−1) P(w_1, w_2, \dots, w_n) = \prod_{i=1}^n P(w_i | w_1, w_2, \dots, w_{i-1})P(w1​,w2​,…,wn​)=i=1∏n​P(wi​∣w1​,w2​,…,wi−1​)其中:w1,w2,…,wnw_1, w_2, \dots, w_nw1​,w2​,…,wn​是模型生成的nnn个token;P(wi∣w1,w2,…,wi−1)P(w_i | w_1, w_2, \dots, w_{i-1})P(wi​∣w1​,w2​,…,wi−1​)是模型在已经生成了w1,w2,…,wi−1w_1, w_2, \dots, w_{i-1}w1​,w2​,…,wi−1​的情况下,生成wiw_iwi​的概率;∏i=1n\prod_{i=1}^n∏i=1n​是连乘符号,表示把所有的概率乘起来。概率生成机制为什么会导致幻觉?概率生成机制导致幻觉的原因主要有三个:模型没有“常识”,只有“统计规律”:比如模型在训练数据中看到“双人火锅套餐”通常是“麻辣”的,通常会“加香菜加葱花”,所以当你说“帮我订一份双人火锅套餐”的时候,模型就会根据“统计规律”生成“麻辣”“加香菜加葱花”,即使你没说;模型会“编造”token来让文本更连贯:比如模型在生成“2024年巴黎奥运会的吉祥物是____”的时候,如果训练数据中关于“2024年巴黎奥运会的吉祥物”的信息不够多,或者模型没记住,模型就会“编造”一个常见的吉祥物(比如“一只猫”)来让文本更连贯;模型的“记忆”是有限的:比如模型在训练数据中看到了“2024年巴黎奥运会的吉祥物是弗里吉”,但当你问它的时候,模型可能“忘”了,或者“记错”了,就会生成错误的内容。核心概念四:什么是检索增强生成(RAG)?——缓解LLM原生幻觉的“特效药”之一生活中的例子你可以把检索增强生成(RAG)想象成一个“带参考书的考试”——这个考试的规则是这样的:给你发一张试卷,上面有一些问题;给你发一堆参考书,里面有所有问题的答案;你可以先翻参考书,找到与问题相关的内容;然后再根据参考书里的内容回答问题;要求:只能用参考书里的内容回答问题,如果参考书里没有答案,就说“我不知道”。在这个考试中,你会不会“胡言乱语”?——大概率不会,因为你有参考书作为依据;即使你“忘”了某个知识点,你也可以翻参考书找到答案。检索增强生成(RAG)和这个“带参考书的考试”几乎一模一样——唯一的区别是:RAG的“试卷”是用户的问题,RAG的“参考书”是知识库,RAG的“考生”是大语言模型。专业定义检索增强生成(RAG)是一种结合了信息检索(Information Retrieval, IR)和自然语言生成(Natural Language Generation, NLG)的技术——它的核心思想是:先从一个结构化或非结构化的知识库中检索出与用户问题相关的 top-k 个文档(或文档片段),然后将这些检索到的文档作为“上下文”(Context),和用户的问题一起输入给大语言模型,让大语言模型基于这些检索到的文档生成答案。RAG的主要作用是:缓解LLM的原生幻觉:给LLM提供“可靠的知识依据”,让LLM不要“编造”内容;更新LLM的知识:LLM的训练数据是“静态”的,比如GPT-4的训练数据截止到2023年10月,而RAG的知识库是“动态”的,可以随时更新,所以RAG可以让LLM回答“训练数据之后的问题”,比如“2024年巴黎奥运会的金牌榜排名第一的国家是哪个?”;保护用户的隐私:如果用户的问题涉及到隐私信息(比如企业的内部文档、个人的医疗记录),可以把这些信息存储在本地的知识库中,不用上传给LLM的服务商,从而保护用户的隐私。核心概念五:什么是思维链(CoT)?——缓解LLM逻辑错误的“特效药”之一生活中的例子你可以把思维链(Chain of Thought, CoT)想象成一个“做数学题的时候写解题步骤”——比如你做一道小学数学题:“小明有5个苹果,送给小红2个,又买了3个,请问小明现在有几个苹果?”如果你直接写答案“6个”,老师可能会问你“你是怎么算出来的?”;但如果你写解题步骤:小明原来有5个苹果;送给小红2个,剩下的苹果数是:5 - 2 = 3个;又买了3个,现在的苹果数是:3 + 3 = 6个;所以小明现在有6个苹果。老师不仅会给你满分,还会夸你“解题思路清晰”。思维链(CoT)和这个“做数学题的时候写解题步骤”几乎一模一样——唯一的区别是:CoT是让大语言模型在生成最终答案之前,先一步步地思考问题的解决过程,而不是让学生写解题步骤。专业定义思维链(Chain of Thought, CoT)是一种提示工程方法——它的核心思想是:在给大语言模型的提示词中,加入一些“示例(Example)”,这些示例包含“问题”和“一步步的解题步骤”,或者直接在提示词中要求大语言模型“一步步地思考问题的解决过程,然后再给出最终答案”。CoT的主要作用是:提高LLM的逻辑推理能力:比如在做数学题、逻辑题、编程题的时候,CoT可以让LLM的准确率提高很多;缓解LLM的整合偏差幻觉:比如在整合多源信息的时候,CoT可以让LLM一步步地分析每个信息的可靠性,然后再整合出最终的答案;提高LLM输出的可解释性:比如用户可以通过LLM的“解题步骤”,知道LLM是怎么得出最终答案的,如果答案有问题,用户也可以定位到具体的问题点。核心概念六:什么是约束提示工程?——缓解Agent所有幻觉的“万能药”之一生活中的例子你可以把约束提示工程想象成一个**“给小朋友定规矩”**——比如你给你家的小朋友定了以下几个规矩:只能说真话,不能说假话;如果不知道答案,就说“我不知道”,不能编造;说话的时候要注意礼貌;不能说脏话。如果你家的小朋友遵守这些规矩,他会不会“胡言乱语”?——大概率不会。约束提示工程和这个“给小朋友定规矩”几乎一模一样——唯一的区别是:约束提示工程是给大语言模型或Agent定“规矩”,而不是给小朋友定规矩。专业定义约束提示工程是一种提示工程方法——它的核心思想是:在给大语言模型或Agent的提示词中,加入一些明确的“约束条件(Constraints)”,来引导大语言模型或Agent生成符合要求的内容。常见的约束条件有:内容真实性约束:比如“只能用知识库中的内容回答问题,如果知识库中没有答案,就说‘我不知道’”;内容完整性约束:比如“回答问题的时候要包含所有的关键点,不能遗漏”;内容简洁性约束:比如“回答问题的时候要简洁明了,不要说废话”;内容格式约束:比如“回答问题的时候要用JSON格式,或者用表格格式”;内容语气约束:比如“回答问题的时候要语气友好,或者要语气正式”。核心概念之间的关系:用小学生能理解的比喻整体关系:Agent像一个“乐队”你可以把基于LLM的任务型Agent想象成一个**“乐队”**——这个乐队的成员有:主唱(大语言模型,LLM):乐队的核心,负责“唱歌”(生成最终答案);鼓手(感知系统):负责“听观众的需求”(理解用户的意图);吉他手(记忆系统):负责“记住之前唱过的歌”(记住用户之前说过的话);键盘手(工具系统):负责“用乐器伴奏”(调用外部工具);贝斯手(决策系统):负责“决定唱什么歌,怎么唱”(决定用什么工具,怎么整合信息);音响师(输出系统):负责“把歌声传递给观众”(把最终答案传递给用户);调音师(RAG+CoT+约束提示工程):负责“调整乐队的声音,让歌声更好听,更准确”(缓解幻觉,提高输出质量)。如果这个乐队的成员都配合得很好,调音师也调得很好,那么这个乐队的歌声就会“很好听,很准确”;如果这个乐队的成员配合得不好,或者调音师没调好,那么这个乐队的歌声就会“很难听,很不准确”——也就是“胡言乱语”。概念一和概念二的关系:LLM是Agent的“大脑”,幻觉是Agent的“大脑病”你可以把LLM想象成Agent的“大脑”,把幻觉想象成Agent的“大脑病”——如果Agent的“大脑”(LLM)有“大脑病”(原生幻觉),那么即使Agent的“手脚”(工具系统)“眼睛”(感知系统)“嘴巴”(输出系统)都没问题,Agent也会“胡言乱语”。概念一和概念四的关系:RAG是Agent的“参考书”,能治好Agent的“大脑病”(原生幻觉)你可以把RAG想象成Agent的“参考书”,把LLM的原生幻觉想象成Agent的“忘性大”——如果Agent的“大脑”(LLM)“忘性大”(原生幻觉),那么给Agent一本“参考书”(RAG),让Agent“翻参考书回答问题”,就能治好Agent的“忘性大”(原生幻觉)。概念一和概念五的关系:CoT是Agent的“解题步骤本”,能提高Agent的“逻辑推理能力”你可以把CoT想象成Agent的“解题步骤本”,把LLM的逻辑错误想象成Agent的“解题思路不清晰”——如果Agent的“大脑”(LLM)“解题思路不清晰”(逻辑错误),那么给Agent一本“解题步骤本”(CoT),让Agent“一步步地思考问题的解决过程”,就能提高Agent的“逻辑推理能力”。概念一、四、五、六的关系:RAG+CoT+约束提示工程是Agent的“三合一药方”,能系统性地缓解Agent的所有幻觉你可以把RAG+CoT+约束提示工程想象成Agent的“三合一药方”——这个药方的“成分”有:RAG:给Agent提供“可靠的知识依据”;CoT:让Agent“一步步地思考问题的解决过程”;约束提示工程:给Agent定“规矩”。如果Agent同时服用这“三合一药方”,就能系统性地缓解Agent的所有幻觉——包括LLM原生幻觉、输入偏差幻觉、整合偏差幻觉。核心概念原理和架构的文本示意图(专业定义)基于LLM的任务型Agent的核心架构由以下几个部分组成:感知与交互模块:负责接收用户的输入(可以是文本、语音、图片等,但本文主要讨论文本输入);负责将用户的输入转换为LLM能理解的格式;负责将LLM生成的输出转换为用户能理解的格式(可以是文本、语音、图片等,但本文主要讨论文本输出);负责与用户进行多轮对话。意图理解与实体识别模块:负责理解用户的意图(比如“订火锅外卖”“查资料”“写代码”);负责识别用户输入中的实体(比如“双人火锅套餐”“北京市朝阳区望京SOHO T3-1201室”“50分钟”);负责填充意图所需的槽位(Slot Filling)——比如“订火锅外卖”的槽位有“套餐类型”“口味”“配菜”“地址”“送达时间”“联系电话”。记忆管理模块:负责存储用户的历史对话记录(短期记忆);负责存储用户的个人信息(长期记忆)——比如“地址”“口味”“生日”“联系电话”;负责存储Agent的历史操作记录(比如“之前调用了什么工具,返回了什么结果”);负责从记忆中检索出与当前对话相关的信息。工具调度与执行模块:负责维护一个工具库(Tool Library)——里面有各种外部工具(比如搜索引擎、计算器、天气API、订机票API、订火锅外卖API);负责根据用户的意图和当前的上下文,决定调用哪些工具;负责调用外部工具,并获取工具返回的结果;负责处理工具返回的错误(比如“API调用失败”“工具返回的结果为空”)。知识检索与增强模块(RAG模块):负责维护一个知识库(Knowledge Base)——里面有结构化或非结构化的知识(比如维基百科、企业的内部文档、法律法规库);负责将知识库中的文档转换为向量(Vector),并存储在向量数据库(Vector Database)中;负责根据用户的意图和当前的上下文,从向量数据库中检索出与当前对话相关的 top-k 个文档(或文档片段);负责对检索到的文档进行重排序(Reranking)——把最相关的文档排在最前面;负责将重排序后的文档作为“上下文”,和用户的问题一起输入给LLM。决策与推理模块:负责整合多源信息——包括用户的输入、记忆中的信息、工具返回的结果、检索到的文档;负责一步步地思考问题的解决过程(CoT);负责根据整合后的信息和思考过程,做出合理的决策;负责生成最终的答案。幻觉检测与修正模块:负责检测决策与推理模块生成的答案是否有幻觉;负责如果检测到幻觉,就对答案进行修正——比如“重新检索文档”“重新调用工具”“重新思考问题的解决过程”;负责如果无法修正幻觉,就告诉用户“我不知道”,或者“我不确定这个答案是否正确,请你核实一下”。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2511138.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…