掌握上下文工程,小白也能轻松驾驭大模型(收藏版)
本文深入解析了上下文工程的概念及其与提示工程的核心区别。随着AI进入Agent时代上下文工程成为构建高效AI应用的关键。文章详细阐述了如何通过优化系统提示、设计高效工具和运用Few-shot Prompting来提升上下文管理能力并介绍了应对长时程任务的压缩、结构化笔记和子智能体架构等策略。掌握上下文工程即使是编程新手也能更好地利用大模型实现更智能的应用。Anthropic发布Claude Sonnet 4.5时顺便也发了一篇文章讲的是上下文工程Anthropic认为随着AI进入Agent时代构建语言模型的重点正在从“为提示找到正确的词语和短语”转向一个更大的问题“什么样的上下文配置最有可能产生我们期望的模型行为”简单来说提示工程Prompt Engineering正在自然地演进为上下文工程上下文是AI智能体的核心动力但它既宝贵又有限这篇文章将深入探讨一系列策略教你如何高效地筛选与管理这些关键信息上下文工程 vs. 提示工程首先什么是上下文工程Anthropic给出的定义是为LLM在推理过程中策划和维护最优信息tokens集合的一系列策略它与我们熟悉的提示工程有何不同提示工程主要关注如何编写和组织LLM的指令以获得最佳输出特别是系统提示System Prompt。它的核心是“写好提示词”通常应用于单轮查询任务上下文工程关注的是管理整个上下文状态包括系统指令、工具、外部数据、历史消息等所有可能进入上下文窗口的信息。它的核心是管理信息流是为需要在多轮推理和更长时间跨度上运行的AI Agent量身定制的用一张对比图展示二者的区别左侧的提示工程流程简单系统提示用户消息直接生成回复右侧的上下文工程则是一个动态循环模型需要从一个包含文档、工具、记忆文件、历史消息等庞大的“可能上下文池”中通过一个“策划”环节筛选出最优信息组合填入有限的上下文窗口然后才能进行思考、调用工具并生成下一步行动这个“策划”过程在Agent的每一次决策循环中都会发生是上下文工程的核心为什么上下文工程如此重要Anthropic指出尽管LLM能处理越来越大的数据量但它们和人类一样在某个点上会失去焦点或感到困惑研究已经揭示了“上下文腐烂Context Rot”现象随着上下文窗口中的令牌数量增加模型准确回忆其中信息的能力会下降这种现象背后的根本原因源于Transformer架构的内在限制。每个令牌都需要与上下文中的其他所有令牌建立关系这导致了n²的成对关系复杂性。当上下文变长时模型的“注意力预算attention budget”会被摊薄因此上下文是一种有限且边际效益递减的宝贵资源。优秀的上下文工程就是要找到那个能最大化期望结果可能性的、最小的高信噪比令牌集高效上下文的“解剖”如何进行有效的上下文工程Anthropic从实践层面给出了三大核心组件的指导原则。系统提示找到恰到好处的平衡点系统提示是门艺术需要避免两个极端过于具体在提示中硬编码复杂的if-else逻辑会导致系统脆弱难以维护过于模糊给出高级别的、模糊的指导无法为LLM提供具体的行为信号最佳实践是找到一个“黄金区域”指令既要足够具体以有效指导行为又要足够灵活以赋予模型强大的启发式能力Anthropic建议将提示结构化为不同部分例如背景信息、指令其核心原则是力求用最精简的信息来完整地阐明预期的行为工具像设计优秀代码库一样设计工具工具定义了Agent与环境交互的契约。好的工具应该像设计良好的代码库中的函数一样自包含、功能内聚尽量减少功能重叠对错误有鲁棒性意图清晰输入参数描述明确、无歧义最常见的失败模式是“臃肿的工具集”这会让Agent甚至人类工程师难以抉择。精简、可行的工具集是上下文工程的关键示例Few-shot Prompting重质而非量提供示例是公认的最佳实践。但Anthropic不建议将大量的边缘案例塞进提示中正确的做法是策划一组多样化、规范化的示例这些示例能有效地描绘出Agent的预期行为。对于LLM来说好的示例一图胜千言从预加载到即时检索Agentic Search传统的RAG等方法倾向于在推理前就检索并“预加载”所有相关信息。而Anthropic观察到一个新趋势“即时”上下文策略在这种模式下Agent只维护轻量级的标识符如文件路径、URL并在运行时使用工具动态地将数据加载到上下文中。这就像人类不会记住所有信息而是通过文件系统、书签来按需检索Claude Code就是这种方法的实践者。它可以通过head和tail等Bash命令分析大型数据库而无需将整个数据库加载到上下文中这种方法也支持渐进式披露允许Agent通过探索逐步发现相关上下文每次交互都会为下一次决策提供信息当然运行时探索比预计算慢因此最佳策略可能是混合模式预先检索部分关键信息以提高速度同时赋予Agent自主探索的权力应对长时程任务的三大策略当任务如大型代码库迁移的持续时间远超单个上下文窗口的容量时需要专门的技术来维持连贯性。Anthropic分享了三种核心策略压缩当对话接近上下文窗口极限时让模型对现有内容进行总结和压缩然后用这个摘要开启一个新的上下文窗口。这能以高保真度的方式提炼关键信息如架构决策、未解决的bug同时丢弃冗余内容如过时的工具输出。最简单的一种压缩形式就是清理旧的工具调用和结果结构化笔记也称为“智能体记忆agentic memory”。这是一种让Agent定期将笔记持久化到上下文窗口之外的内存中的技术。这些笔记可以在稍后的时间点被重新拉回上下文Anthropic展示了一个让Claude玩《宝可梦》的例子Agent在没有被明确提示的情况下自主学会了创建待办事项列表、绘制探索过的区域地图、记录战斗策略等。当上下文重置后它能通过读取自己的笔记无缝衔接之前的进度完成长达数小时的游戏任务子智能体架构与其让单个Agent维护整个项目的状态不如让专门的子智能体处理集中的任务。一个主智能体负责高层级的规划和协调而子智能体则深入执行技术工作或信息检索并只返回一个精炼的摘要。这种“关注点分离”的模式在复杂研究任务中被证明比单智能体系统有显著的优势。如何选择压缩适用于需要大量来回对话的任务笔记适用于有明确里程碑的迭代式开发任务多智能体适用于并行探索能带来收益的复杂研究和分析任务写在最后上下文工程代表了构建LLM应用方式的根本性转变随着模型能力越来越强挑战不再仅仅是制作完美的提示而是在每一步都深思熟虑地策划哪些信息能进入模型有限的注意力预算无论是为长时程任务实现压缩设计高效的工具还是让Agent“即时”探索环境其指导原则始终如一找到最小的高信噪比令牌集以最大化期望结果的可能性即使未来模型变得更加自主将上下文视为一种宝贵的、有限的资源仍将是构建可靠、高效Agent的核心最后对于正在迷茫择业、想转行提升或是刚入门的程序员、编程小白来说有一个问题几乎人人都在问未来10年什么领域的职业发展潜力最大答案只有一个人工智能尤其是大模型方向当下人工智能行业正处于爆发式增长期其中大模型相关岗位更是供不应求薪资待遇直接拉满——字节跳动作为AI领域的头部玩家给硕士毕业的优质AI人才含大模型相关方向开出的月基础工资高达5万—6万元即便是非“人才计划”的普通应聘者月基础工资也能稳定在4万元左右。再看阿里、腾讯两大互联网大厂非“人才计划”的AI相关岗位应聘者月基础工资也约有3万元远超其他行业同资历岗位的薪资水平对于程序员、小白来说无疑是绝佳的转型和提升赛道。对于想入局大模型、抢占未来10年行业红利的程序员和小白来说现在正是最好的学习时机行业缺口大、大厂需求旺、薪资天花板高只要找准学习方向稳步提升技能就能轻松摆脱“低薪困境”抓住AI时代的职业机遇。如果你还不知道从何开始我自己整理一套全网最全最细的大模型零基础教程我也是一路自学走过来的很清楚小白前期学习的痛楚你要是没有方向还没有好的资源根本学不到东西下面是我整理的大模型学习资源希望能帮到你。扫码免费领取全部内容最后1、大模型学习路线2、从0到进阶大模型学习视频教程从入门到进阶这里都有跟着老师学习事半功倍。3、 入门必看大模型学习书籍文档.pdf书面上的技术书籍确实太多了这些是我精选出来的还有很多不在图里4、AI大模型最新行业报告2026最新行业报告针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。5、面试试题/经验【大厂 AI 岗位面经分享107 道】【AI 大模型面试真题102 道】【LLMs 面试真题97 道】6、大模型项目实战配套源码适用人群四阶段学习规划共90天可落地执行第一阶段10天初阶应用该阶段让大家对大模型 AI有一个最前沿的认识对大模型 AI 的理解超过 95% 的人可以在相关讨论时发表高级、不跟风、又接地气的见解别人只会和 AI 聊天而你能调教 AI并能用代码将大模型和业务衔接。大模型 AI 能干什么大模型是怎样获得「智能」的用好 AI 的核心心法大模型应用业务架构大模型应用技术架构代码示例向 GPT-3.5 灌入新知识提示工程的意义和核心思想Prompt 典型构成指令调优方法论思维链和思维树Prompt 攻击和防范…第二阶段30天高阶应用该阶段我们正式进入大模型 AI 进阶实战学习学会构造私有知识库扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架抓住最新的技术进展适合 Python 和 JavaScript 程序员。为什么要做 RAG搭建一个简单的 ChatPDF检索的基础概念什么是向量表示Embeddings向量数据库与向量检索基于向量检索的 RAG搭建 RAG 系统的扩展知识混合检索与 RAG-Fusion 简介向量模型本地部署…第三阶段30天模型训练恭喜你如果学到这里你基本可以找到一份大模型 AI相关的工作自己也能训练 GPT 了通过微调训练自己的垂直大模型能独立训练开源多模态大模型掌握更多技术方案。到此为止大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗为什么要做 RAG什么是模型什么是模型训练求解器 损失函数简介小实验2手写一个简单的神经网络并训练它什么是训练/预训练/微调/轻量化微调Transformer结构简介轻量化微调实验数据集的构建…第四阶段20天商业闭环对全球大模型从性能、吞吐量、成本等方面有一定的认知可以在云端和本地等多种环境下部署大模型找到适合自己的项目/创业方向做一名被 AI 武装的产品经理。硬件选型带你了解全球大模型使用国产大模型服务搭建 OpenAI 代理热身基于阿里云 PAI 部署 Stable Diffusion在本地计算机运行大模型大模型的私有化部署基于 vLLM 部署大模型案例如何优雅地在阿里云私有部署开源大模型部署一套开源 LLM 项目内容安全互联网信息服务算法备案…扫码免费领取全部内容3、这些资料真的有用吗这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理现任上海殷泊信息科技CEO其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证服务航天科工、国家电网等1000企业以第一作者在IEEE Transactions发表论文50篇获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的技术人员这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2464773.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!