从“听懂”到“干活”:带你了解驾驭工程、提示词工程与上下文工程的核心逻辑
引言在AI技术飞速普及的今天越来越多的人开始尝试用大模型解决实际问题——可能是让AI写一段代码、整理一份文档也可能是搭建一个能自主完成复杂任务的智能体。但很多人都会遇到同一个困惑明明我给AI发了指令它却总答非所问聊了几轮之后它就忘了我最初的要求好不容易让它听懂了、记住了却又不知道怎么让它真正“动手干活”其实这三个问题的答案恰恰对应了三个极易混淆却又至关重要的AI工程概念提示词工程Prompt Engineering、上下文工程Context Engineering以及驾驭工程Harness Engineering。有很多人在接触这些概念时总会陷入“分不清、记不住、用不上”的困境——误以为提示词工程就是“写好一句话”上下文工程只是“记好之前的话”而驾驭工程更是听起来高深莫测不知道和前两者有什么关系。但实际上这三者不是孤立存在的而是一套从“让AI听懂”到“让AI记住”再到“让AI自主干活”的完整体系。一、提示词工程让AI不乱说话大语言模型的本质是预测下一个词的概率如果指令太宽泛输出就会发散。提示词工程通过有意识地设计指令加入角色设定、背景、格式限制等约束就会让模型的输出更符合预期因此提示词工程解决的核心问题是怎么让AI听懂我说的话不跑偏1.他到底在干什么我们给 AI 的每一句话本质上都是一个 “提示词”。提示词工程就是教你把这句话变成一份逻辑清晰、要求明确、格式固定的 “任务说明书”。说明书越清楚AI 的输出就越接近你的预期。2.如何写提示词要结合角色设定、背景、历史对话等来和AI进行对话这里举个例子模块作用例子角色设定给 AI 一个身份让它用对应的专业能力和语气回答你是资深Python工程师背景 / 目标说清楚你要解决什么问题、达到什么效果我现在需要优化一段数据处理代码历史对话补充之前聊过的关键信息避免重复说明我前面提到过代码要兼容Python3.8参考文档 / 规则给 AI 划定 “知识边界”避免它瞎编参照Python3官方文档不要用第三方库限制条件明确 “什么不能做”防止 AI 过度发挥不改原有代码逻辑只新增排序功能输出格式规定结果的形式方便你直接使用直接返回完整可运行的函数代码不要多余文字解释如果你说帮我优化一下代码结果AI会写一堆废话或者把原有的改的面目全非二、上下文工程让AI知道的更多模型回答的不准往往是因为“知道的不够多”所以我们会将很多资料打包给AI其中包含提示词这些资料就叫上下文。但是大模型再厉害一次能处理的资料也是有限的这个限制就叫上下文窗口在对话中如果对话次数变多很容易将上下文窗口变满于是大模型就会丢弃或压缩部分信息因此不可避免会丢失一些关键信息从而破坏我们要的结果的正确性这就是上下文腐化因此问题变成了如何在合适的时候、将合适的内容塞到上下文窗口中这就引出了上下文工程提示词工程是上下文工程的一部分上下文工程通过召回、压缩、组装三个步骤将最相关、最精简的信息喂给模型从而提升回答的准确性1.召回就是获得什么信息这些信息可以来自外部信息、历史对话、当前代码环境以及程序运行报错等从这些信息里面获取一些关键信息2.压缩由于上下文窗口的限制因此就会有压缩比如将信息分开发给大模型做总结3.组装因为在压缩时信息放置的位置和顺序会直接影响大模型的输出比如越靠后越容易被大模型关注不同AI工具的上下文工程策略不同三、驾驭工程让AI自主干活提示词工程和上下文工程都是为了让 AI“听得懂、记得住”这样AI只能聊天没办法帮我们干活如果让 AI“能动手、能干活、能自己调整”就需要驾驭工程了。1.核心组成能够像人一下利用外部工具来干活读写代码文件、执行命令做测试这些共同构成了执行层2.ReAct将上下文工程、大模型、执行层串成一个流程上下文发给大模型大模型负责思考外部程序负责执行将得到的报错等信息加到上下文里然后继续传给大模型......就是一个循环过程这就是所谓的AI Agent本质就是一个for循环但是当循环越来越长上下文得到的信息也会越来越多就会导致产生上下文腐化因此只要我们保证上下文里面一直有一些可复用的核心信息那么大模型就能在大框架约束下减少理解偏移因此整体上变成了这样的框架共同组成了一个包裹着大模型的工程外壳这就是驾驭工程Agent大模型Harness
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2558806.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!