阿里大模型二面:在 Agent 的设计中,“规划能力“至关重要。请谈谈目前有哪些主流方法可以赋予 LLM 规划能力?(例如 CoT, ToT, GoT 等)
1. 题目分析这道题考察的是你对 Agent 核心能力之一——规划Planning的系统性理解。面试官提到了 CoT、ToT、GoT 这些关键词但他真正想听的不是你把这几个缩写展开然后各背一段定义而是你能不能把这些方法放到一条演进脉络上讲清楚它们各自解决了什么问题、彼此之间是什么关系、在实际 Agent 工程中怎么选型。换句话说这道题的答题层次是先讲清楚为什么规划能力重要再沿着思维结构从简单到复杂这条线把各种方法串起来最后落到工程实践中的选型考量。1.1 为什么规划能力是 Agent 的核心在聊具体方法之前我们先要理解规划在 Agent 体系中扮演的角色。一个完整的 Agent 通常包含四大能力模块感知Perception、规划Planning、记忆Memory和行动Action。其中规划是真正的大脑它决定了 Agent 面对一个复杂任务时应该把任务拆解成哪些子步骤、以什么顺序执行、遇到问题时怎么调整策略。如果没有规划能力Agent 就只能做简单的一问一答——用户说什么它就做什么完全不具备处理多步骤复杂任务的能力。你可以把规划能力理解为 Agent 和普通 Chatbot 之间的分水岭Chatbot 是被动应答Agent 是主动规划并执行。而赋予 LLM 规划能力的核心方法本质上都是在回答同一个问题如何组织 LLM 的推理过程使它能够系统地分解和解决复杂问题不同方法的区别在于它们对推理过程的结构化程度不同——从最简单的线性链条到树状分支再到任意图结构复杂度逐步递增适用场景也各不相同。1.2 Chain-of-ThoughtCoT线性链式推理CoT 是一切的起点由 Google 在 2022 年的论文中正式提出。在 CoT 出现之前我们让大模型回答问题的方式是直接给答案也就是所谓的 Standard Prompting。比如问Roger 有 5 个网球又买了 2 罐每罐 3 个他现在有多少个模型直接输出11。这种方式对于简单问题没问题但遇到需要多步推理的问题就经常出错因为模型被迫在一次前向传播中完成所有计算。CoT 的核心洞察非常简单但深刻让模型把中间推理步骤显式地写出来。还是刚才那个问题加上 CoT 之后模型会输出Roger 一开始有 5 个球2 罐每罐 3 个就是 6 个5 6 11。看起来只是多输出了几句话但效果提升非常显著因为每一步中间结果都变成了下一步推理的垫脚石大幅降低了推理难度。CoT 有两种主要的触发方式。一种是Few-shot CoT在 prompt 中给几个带推理过程的示例模型就会模仿这种推理风格。另一种是Zero-shot CoT更简单粗暴只需要在问题后面加一句Lets think step by step模型就会自动展开推理链。这说明大模型内部其实已经具备了逐步推理的能力CoT 只是通过 prompt 把这个能力激活了。但是 CoT 有一个本质局限它的推理过程是单条链路的线性的不可回退的。模型从第一步开始一步接一步地往下推如果中间某一步推错了后面所有步骤都会跟着错下去没有任何纠错或换条路试试的机制。这对于只有一条正确推理路径的简单任务来说够用了但对于有多种可能解法的复杂任务就显得力不从心了。1.3 Self-Consistency自洽性采样多条链路投票在 CoT 的基础上一个很自然的改进思路是既然一条链可能走错那我多生成几条链最后投票选最靠谱的不就行了这就是 Self-Consistency 方法。Self-Consistency 的做法是对同一个问题让模型用 CoT 的方式生成多条不同的推理链通过调高 temperature 来引入随机性每条链都会得出一个最终答案然后对所有答案进行多数投票票数最多的答案作为最终输出。这个方法的直觉来自于人类解题的经验——如果你用三种不同的方法解一道数学题三种方法都得到了同一个答案那这个答案大概率是对的。Self-Consistency 用统计的方式提高了推理的鲁棒性在数学推理和常识推理任务上效果很好。但它的局限也很明显多条链之间是完全独立的不会互相交流信息。也就是说如果第一条链在某一步发现了一个关键线索第二条链在推理过程中完全用不到这个线索。每条链都是闷头自己推最后只是在结果层面做投票聚合。这显然是一种浪费——理想情况下我们希望不同推理路径之间能够共享中间信息、互相启发。1.4 Tree-of-ThoughtToT树状分支探索ToT 就是为了解决 CoT 一条路走到黑和 Self-Consistency 多条路互不相干这两个问题而提出的。它由 Yao 等人在 2023 年的论文中正式提出核心思想是把推理过程从一条链变成一棵树在每一步都可以产生多个分支候选然后通过评估来选择最有希望的分支继续探索必要时还可以回溯。具体来说ToT 的工作流程是这样的在推理的每一步模型会生成多个可能的思维节点Thought每个节点代表一种可能的推理方向。然后模型会对这些候选节点进行自我评估Self-evaluation判断每个方向的前景如何——是很有希望、还行还是肯定不对。基于评估结果系统选择最优的一个或几个节点继续往下展开形成新的分支。如果某个分支推着推着发现走不通了还可以回溯到之前的节点换一个方向继续探索。这个过程本质上就是经典算法中的搜索——你可以用 BFS广度优先搜索来逐层展开所有可能性也可以用 DFS深度优先搜索来沿着一个方向深入探索、走不通再回头。ToT 把 LLM 的推理过程变成了一个可控的搜索问题。用一个例子来说明 ToT 的威力。假设我们让模型做一个24 点游戏——给定 4 个数字用加减乘除组合成 24。CoT 可能一条路算下去发现算不出来就卡住了。但 ToT 会在每一步尝试多种运算组合评估哪些中间结果更有可能通向 24优先探索那些有希望的分支走不通就回退换路直到找到答案。1.5 Graph-of-ThoughtGoT图结构的自由推理如果说 CoT 是一条线、ToT 是一棵树那 GoT 就是一张任意有向图。GoT 由 Besta 等人在 2023 年提出它进一步打破了树结构的层级限制允许推理节点之间形成更自由、更复杂的连接关系。GoT 相比 ToT 最关键的新增能力是思维的聚合Aggregation。在树结构中信息只能从父节点流向子节点不同分支之间是隔离的。但在很多实际推理场景中我们需要把多个分支的中间结论汇总合并成一个新的结论——这就要求不同分支之间能够连线。GoT 通过引入聚合操作允许多个思维节点的输出合并成一个新节点的输入形成类似 DAG有向无环图甚至包含环路的图结构。举个例子假设你要分析一篇长文档的核心观点。你可以先用不同的分支分别提取各段落的关键信息这是 ToT 也能做的发散然后把各段落的关键信息聚合成一个全局摘要这是 GoT 独有的收敛最后基于全局摘要再进一步推理。这种先发散再收敛的模式在树结构中是做不到的。从图论的角度来看CoT 是一条路径PathToT 是一棵树TreeGoT 是一张图Graph。路径是树的特例树是图的特例所以 GoT 在理论上的表达能力是最强的。但表达能力强也意味着搜索空间更大、控制更复杂实际工程中需要更精细的调度策略。1.6 其他重要的规划方法除了上面这条链→树→图的主线之外还有几种重要的规划方法需要了解Plan-and-Execute规划-执行分离是一种偏工程实践的策略。它的思路是把规划和执行拆成两个独立阶段先让一个Planner LLM对任务做全局规划输出一个完整的步骤清单然后让一个Executor LLM逐步执行每个步骤。这种方法的好处是规划阶段可以纵览全局不会被执行过程中的细节干扰适合那些步骤较多但逻辑相对确定的任务比如帮我写一篇行业分析报告这种。LangChain 和 LangGraph 中都有对应的 Plan-and-Execute Agent 实现。Reflexion反思机制则是在规划执行的基础上加入了复盘环节。当 Agent 执行一个任务失败后它不会简单地重试而是先回顾整个推理和执行过程总结出哪里做错了、下次应该怎么改进的经验教训然后把这些反思存入记忆在下一次尝试中参考。Reflexion 本质上赋予了 Agent 从失败中学习的能力类似于人类的吃一堑长一智。LLMPLLM 经典规划器是一种混合方法它把 LLM 的自然语言理解能力和经典 AI 规划算法如 PDDL 规划器的严格推理能力结合在一起。LLM 负责把用户的自然语言需求转化为结构化的规划问题描述PDDL 格式然后交给经典规划器去求解最优行动序列最后 LLM 再把结果翻译成自然语言返回给用户。这种方法在需要严格逻辑保证的场景比如机器人路径规划中有独特优势。1.7 工程选型的思考在实际 Agent 开发中选择哪种规划方法取决于具体场景。对于大多数常规任务CoT 配合 ReAct 框架就足够了它简单高效、延迟低。当任务涉及复杂的多步推理且存在多种可能的解题路径时ToT 可以通过搜索和评估找到更优解。GoT 目前在工程中的应用还相对较少更多停留在研究阶段但它的聚合思想在需要先分后合的任务中如多文档摘要、多源数据分析很有启发意义。Plan-and-Execute 在企业级应用中非常实用因为它将规划和执行解耦便于分别优化和调试。Reflexion 适合那些需要 Agent 持续改进、从错误中学习的长期运行场景。而 LLMP 则在机器人、自动化流程等需要严格逻辑保证的领域有独特价值。一个经验性的选型原则是先用最简单的方法跑通再根据效果瓶颈针对性地升级。不要一上来就用最复杂的方法因为复杂度本身就是成本——不仅是计算成本还有工程维护成本和调试难度。2. 参考回答Agent 的规划能力本质上是解决如何让 LLM 系统性地分解和执行复杂任务这个问题目前主流方法可以沿着一条推理结构从简单到复杂的演进线来理解。最基础的是CoTChain-of-Thought它通过让模型显式输出中间推理步骤来激活逐步推理能力但本质上是单条链路的线性推理中间一步出错后续就全废了。在此基础上Self-Consistency通过多次采样生成多条独立推理链然后多数投票来提高鲁棒性但不同链之间不共享中间信息。ToTTree-of-Thought是一个关键跃升它把推理过程从链变成了树——每一步都生成多个候选方向通过 LLM 自我评估来选择最有希望的分支继续展开走不通还能回溯本质上是把 LLM 推理变成了一个可控的搜索问题用 BFS 或 DFS 策略来探索推理空间。GoTGraph-of-Thought进一步打破了树的层级限制允许不同分支的思维节点进行聚合形成任意有向图结构核心突破在于支持了先发散再收敛的推理模式表达能力最强但控制复杂度也最高。除了这条链→树→图的主线工程实践中还有几种非常重要的方法Plan-and-Execute把规划和执行分成两个阶段先全局规划再分步执行适合步骤多但逻辑相对确定的场景Reflexion加入了自我反思机制Agent 失败后会总结经验教训存入记忆下次避免同样的错误。在实际选型上我的经验是先用最简单的方法跑通——大部分场景下 CoT 配合 ReAct 就够用了然后再根据效果瓶颈针对性升级因为复杂度本身就是成本不仅是计算成本还有工程维护和调试的代价。学习资源推荐如果你想更深入地学习大模型以下是一些非常有价值的学习资源这些资源将帮助你从不同角度学习大模型提升你的实践能力。一、全套AGI大模型学习路线AI大模型时代的学习之旅从基础到前沿掌握人工智能的核心技能因篇幅有限仅展示部分资料需要点击文章最下方名片即可前往获取二、640套AI大模型报告合集这套包含640份报告的合集涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师还是对AI大模型感兴趣的爱好者这套报告合集都将为您提供宝贵的信息和启示因篇幅有限仅展示部分资料需要点击文章最下方名片即可前往获取三、AI大模型经典PDF籍随着人工智能技术的飞速发展AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型如GPT-3、BERT、XLNet等以其强大的语言理解和生成能力正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。因篇幅有限仅展示部分资料需要点击文章最下方名片即可前往获取四、AI大模型商业化落地方案作为普通人入局大模型时代需要持续学习和实践不断提高自己的技能和认知水平同时也需要有责任感和伦理意识为人工智能的健康发展贡献力量。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2417951.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!