训练环境决定 AI Agent 天花板:Harness 如何塑造 RL 训练循环
最近 Cursor 发布 Composer 1.5 的消息刷屏了。他们的 RL 训练规模直接扩大了 20 倍后训练计算量甚至超过了预训练阶段。更关键的是所有训练都发生在和生产环境完全一致的沙箱里——同样的代码编辑器、同样的语义搜索、同样的终端命令。这让我突然意识到对于现在的 AI Agent 开发来说训练用的 “Harness”训练环境已经不是一个可有可无的辅助工具而是整个系统成败的关键。很多实验室都在围绕 Harness 做文章今天就来拆解一下他们的做法以及为什么环境质量直接决定了模型的上限。什么是 Agent Harness先搞清楚核心概念强化学习RL大家都知道就是让模型在尝试中学习通过奖励好的结果、惩罚坏的结果来进步。传统的 RLHF人类反馈强化学习主要是单轮对话模型生成回答后让人打分训练步数也就几百步。而Agentic RL完全是另一个维度多轮交互一次 rollout完整尝试可能包含上百次工具调用动作空间极其复杂用哪些工具、什么顺序、并行还是串行奖励极其稀疏复杂任务成功率可能只有 1/1000每个 rollout 要消耗几十万到上百万 token还需要完整的沙箱操作系统环境但 Agentic RL 有一个巨大优势奖励可验证。测试能不能通过、代码能不能运行、linter 有没有报错这些都是客观的不需要人来主观打分。这让 RL 步骤能轻松做到上万次。Harness 指的就是这个训练环境。它包括可用的工具集合、反馈机制、沙箱系统等。模型只会学习环境允许它学的东西。打个比方给你十个精心设计的工具你就能熟练用好它们要是把一百个工具一股脑扔进去模型大概率就随机乱选了。正如 Phil Schmid 说的“竞争优势不再是 prompt而是你的 Harness 能捕获的 trajectories轨迹。”各大实验室的 Harness 实践拆解Cursor生产环境即训练环境20x RL ScalingCursor 的最大亮点是训练环境和生产环境完全一致。他们有三类服务器Trainer用 PyTorch 自定义 MXFP8 内核加速运算Inference Server基于 Ray 框架编排 rolloutEnvironment Server同时启动几十万的微 VM每个 VM 都是完整的 Cursor agent 环境里面跑全套工具因为生产服务器和训练服务器代码相同他们直接复用了现有的 Background Agents 基础设施。这让训练过程中自然涌现了很多能力模型学会了复杂代码库搜索、自主修复 linter 错误、写单元测试、逐步增加并行工具调用还从“疯狂编辑”转向“先多读文件”。他们甚至还跑了第二个训练循环用 agent 的 session traces 训练语义搜索 embedding 模型。分析哪些文件应该早点被检索用 LLM 打分然后训练 embedding 去匹配。结果代码库问答准确率提升明显大代码库的代码保留率也涨了 2.6%。Harness 产生数据 → 数据优化搜索 → 搜索再提升 Harness形成完美闭环。最终 Composer 1.5 在 Terminal-Bench 2.0 上达到了 47.9%超过了 Claude Sonnet 4.5。CognitionModel Harness 同步迭代GRPO 强健 RewardCognition 把 model、harness、工具、prompt 当成一个整体同时开发。他们采用了 GRPOGroup Relative Policy Optimization算法比传统 PPO 更省内存、更准不需要单独的 critic 模型。奖励设计也很讲究除了传统测试还有代码质量 rubric 和 agentic grading。他们专门做了 “reward hardening”让人类专家多轮攻击 grader来减少 false positive 和 “AI slop”功能能用但代码很烂。环境用 Otterlink VM hypervisor支持几万并发机器速度达到 950 tokens/s是 Haiku 4.5 的 6 倍接近 SOTA 编码水平。OpenAI Codex隔离容器 Calibrated HonestyOpenAI 在隔离云容器里训练每个任务预装真实代码和开发环境断网后开始 trajectory。他们特别训练模型学会“诚实”——不可能的任务上从训练前只有 15% 会说“我做不到”训练后提升到 85%。后面版本还引入 compaction让模型能跨多个 context window 总结自己的进度。他们 harness 团队的实证最狠3 个工程师、5 个月用纯 agent 建了一个 100 万行代码的产品、1500 个 PR全程没手动写一行代码——全靠精心设计的 Harness。Windsurf真实开发者工作流训练Windsurf 则另辟蹊径。他们用 “Shared Timeline Data Model” 捕获编辑器里真实的开发者操作包括中断、上下文切换、部分构建等。模型学的是“flow awareness”也就是开发者真实的编码节奏而不是孤立的完美任务。研究证实环境质量决定模型天花板2025年底到2026年初的几篇论文CSO、CARL、CORECRAFT、RAGEN 等都指向同一个结论模型在什么环境里训练就决定了它能学到什么。关键发现一只有约 16% 的步骤真正重要CSO 研究。大部分动作对最终结果影响极小。把 RL 更新聚焦在这些 critical steps 上能带来 37% 的相对提升。关键发现二真实高保真环境训练出来的能力更容易泛化。合成 benchmark 上表现相似的模型在真实复杂环境中差距会拉得很大。关键发现三坏环境会制造 “Echo Trap”。模型早期还会认真思考权衡训练后就退化成重复模板推理多样性消失。解决方案是设计更多样化的初始状态和合理的交互粒度。坏的 Harness 让训练信号被稀释好 Harness 则创造更多有价值的决策时刻。对开发者的启发与应用Harness 设计比 prompt 更重要。未来竞争的核心将是 trajectories 的质量而不是单纯的提示词。建立正反馈闭环。好的 harness 产生好的数据好的数据训练出更好的 model再反过来优化 harness。这个循环会持续 compound。关注可验证性和真实性。在构建自己的 agent 系统时要尽早设计好沙箱、验证机制和 reward 系统避免模型学到“自信地犯错”。实际场景应用企业内部代码助手、运维自动化 agent、复杂客服工作流等都可以借鉴这种思路——让训练环境贴近真实生产场景。这个趋势很明显model 和 harness 的界限正在模糊。谁能把这个循环跑得更快更稳谁就能在 AI Agent 赛道上领先一步。总结Agent Harness 不是训练后才加的“外挂”而是训练环境本身。它直接塑造了模型能学到什么、怎么学。Cursor、Cognition、OpenAI 等实验室的实战加上最新研究都在告诉我们要让 AI Agent 真正强大必须把精力花在打造高质量的训练环境上。这个 Harness 与 Model 相互强化的循环才是未来 AI Agent 能力持续进化的核心引擎。我是紫微AI我们下期见。完
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2408719.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!