从Prompt到Context到Harness:AI工程的三次范式转移,第三次正在发生
2026年初Anthropic 和 OpenAI 几乎同一周发了各自关于 Harness Engineering 的实践文章。加上两篇关于 Agent 记忆基础设施的学术论文以及社区里关于三代工程范式演进的讨论一个完整的图景正在浮现三代工程范式各解决什么问题2023到2024年是 Prompt Engineering 的时代。核心问题是怎么跟模型说话让它给出更好的回答。措辞、格式、few-shot 示例、Chain of Thought所有技巧都围绕一次对话展开2025年 Context Engineering 成为主流概念。Shopify CEO Tobi 的那句Context engineering is the new skill被广泛传播。核心问题变了单靠提示词不够需要把整个上下文窗口当作工程对象来设计。RAG 检索、长上下文管理、tool use 编排、memory 系统全部属于这个范畴。你在优化的是模型看到的全部信息2026年初 Harness Engineering 这个概念被两家大厂几乎同时提出。核心问题再次升级Agent 可以自主运行几个小时甚至几天了单次上下文的优化远远不够。你需要设计的是 Agent 的整个运行环境包括多 Agent 协作架构、评估反馈闭环、架构约束的机械化执行、记忆的治理和验证机制三代之间的关系每一代都包含前一代。Harness 包含 ContextContext 包含 Prompt。但每一代解决的核心问题完全不同Anthropic 怎么做让 Agent 互相评估Anthropic 工程师 Prithvi Rajasekaran 的实验揭示了一个反直觉的事实Agent 评估自己的工作基本没用不管输出质量高低Agent 给自己的评价永远是正面的。把生成和评估拆成两个独立 Agent 之后效果完全不同。评估器不是读代码打分而是用 Playwright 实际操作页面点按钮、填表单、验证功能然后根据四个维度打分设计质量、原创性、工艺细节、功能完整度前端设计实验里生成器经过5到15轮和评估器的来回迭代在第十轮做出了一个3D空间导航方案。全栈开发实验更复杂三个 Agent 分工规划器把一句话需求展开成完整产品规格、生成器用 ReactFastAPIPostgreSQL 逐步实现、评估器做 QA 测试对比数据很直观。单 Agent 20分钟花9美元产出不能用。完整 harness 6小时花200美元交付了带精灵动画、AI 集成和导出功能的完整游戏最有价值的发现随着 Opus 4.6 能力提升sprint 分解可以去掉了但评估器不能去掉。Harness 的每个组件都编码了对模型局限性的假设。模型变强之后有些假设不再成立但有些永远成立。识别哪些该留哪些该删是 harness engineering 的核心技能OpenAI 怎么做百万行代码零手写OpenAI 的实验更激进。五个月一个小团队用 Codex Agent 构建了大约一百万行代码的生产系统。零手写。应用逻辑、文档、CI 配置、可观测性基础设施、工具链全部由 Agent 生成工程师的角色彻底变了。他们做三件事设计开发环境、用结构化 prompt 表达意图、给 Agent 提供反馈循环。OpenAI 管这个叫 depth-first working把大目标拆成小构件让 Agent 构建每个构件然后用这些构件解锁更复杂的任务架构治理是这套系统能跑起来的关键。依赖层级严格分六层Types、Config、Repo、Service、Runtime、UI。每一层的边界用 linter 和 CI 机械化执行不是靠文档约定是靠代码强制。Agent 违反架构约束的 PR 会被自动拒绝Martin Fowler 的评价很到位Harness Engineering 把 context engineering、架构约束和垃圾回收编码成了机器可读的制品Agent 可以系统性地执行记忆系统Harness 里最容易被忽略的一层Anthropic 讲评估闭环OpenAI 讲架构约束但两家都没有深入讨论记忆。这恰好是两篇学术论文填补的空白第一篇是 (S)AGE 论文提出了拜占庭容错的多 Agent 记忆基础设施。核心问题当多个 Agent 共享一个知识库的时候怎么保证写入的知识是可信的。一个 Agent 可能因为幻觉写入了错误信息也可能被对抗性攻击注入虚假记忆他们的方案是 Proof of Experience 共识机制。每个 Agent 有声誉权重权重由四个因子决定历史准确率、领域相关性、活跃度、独立验证数。Agent 提交的记忆需要经过加权投票验证才能写入知识库。部署在4节点 BFT 网络上956 req/s 写入、21.6ms P95 查询。有这套记忆系统的 Agent 校准精度是无记忆基线的两倍第二篇纵向学习论文回答了一个更根本的问题有记忆的 Agent 系统真的会随时间变好吗实验设计很巧妙。治疗组3行 prompt (S)AGE 记忆每轮可以查询之前所有轮次积累的知识。对照组50到200行专家精心编写的 prompt但没有记忆每轮从零开始。跑10轮之后治疗组的红队评估难度从0.8增长到3.0Spearman rho0.716, p0.020对照组完全没有增长趋势rho0.040, p0.901最关键的一点两组的绝对性能水平没有统计差异Cohen’s d -0.07。3行 prompt 加记忆和200行专家 prompt 打了个平手。差异在于学习轨迹有记忆的系统越跑越好没记忆的永远在同一个水平线上这意味着记忆层给 Agent 系统带来的不是更高的初始性能而是组织级的纵向学习能力。人类组织的第100个项目通常比第1个好因为有过程文档、事后复盘、知识库积累。现在 Agent 系统也开始展现同样的特征Prompt vs Context vs Harness 的本质区别三代工程范式的区别可以用一句话概括Prompt Engineering 优化的是人和模型之间的接口Context Engineering 优化的是模型的输入空间Harness Engineering 优化的是 Agent 的整个运行时环境Anthropic 的实验证明了评估闭环比自评估有效几个数量级。OpenAI 的实验证明了架构约束可以让 Agent 在百万行代码级别保持一致性。两篇论文证明了共识验证的记忆系统可以让 Agent 组织具备纵向学习能力这三层加在一起就是完整的 Harness评估机制 架构约束 记忆治理。少了任何一层Agent 系统都会在某个维度上失控学AI大模型的正确顺序千万不要搞错了2026年AI风口已来各行各业的AI渗透肉眼可见超多公司要么转型做AI相关产品要么高薪挖AI技术人才机遇直接摆在眼前有往AI方向发展或者本身有后端编程基础的朋友直接冲AI大模型应用开发转岗超合适就算暂时不打算转岗了解大模型、RAG、Prompt、Agent这些热门概念能上手做简单项目也绝对是求职加分王给大家整理了超全最新的AI大模型应用开发学习清单和资料手把手帮你快速入门学习路线:✅大模型基础认知—大模型核心原理、发展历程、主流模型GPT、文心一言等特点解析✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑✅开发基础能力—Python进阶、API接口调用、大模型开发框架LangChain等实操✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经以上6大模块看似清晰好上手实则每个部分都有扎实的核心内容需要吃透我把大模型的学习全流程已经整理好了抓住AI时代风口轻松解锁职业新可能希望大家都能把握机遇实现薪资/职业跃迁这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2490509.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!