你用AI写代码时,是不是总觉得“它懂语法,却搞不定真实工程”?Composer 2的答案在这里
很多开发者都有过这种体验把一个真实项目需求甩给AI它能秒出语法完美的代码片段可一到大型代码库、遗留系统、多文件联动的时候就开始原地打转。改了半天核心逻辑没动引入新问题或者干脆在长链条任务里卡死。Cursor团队把这个痛点拆到骨子里编码智能的真正瓶颈从来不是“会不会写代码”而是“能不能像老工程师一样在真实混乱战场上自主规划、执行、纠错”。Composer 2不是又一个“参数更大”的通用模型而是一个彻底为agentic software engineering量身打造的编码智能体。它在Cursor自己造的真实工程基准CursorBench上实现大幅跃升同时在SWE-bench Multilingual和Terminal-Bench等公开测试中也达到前沿水准。更关键的是它把服务成本压到极低让普通开发者也能直接用上。这背后的训练路径像极了把一个天赋极高的应届生扔进创业公司先让他把编码教科书和真实代码库吃透再让他天天面对deadline、客户模糊需求、遗留代码的混合地狱。先把知识底座夯实Continued Pretraining的底层逻辑Cursor从Kimi K2.5这个1.04万亿参数激活32B的MoE模型起步做了针对性极强的continued pretraining。整个阶段分三步先在32k上下文狂砸算力夯实编码知识再延伸到256k长上下文最后短SFT针对真实编码任务微调。他们用内部代码库perplexity做监控发现loss呈对数线性下降。更反直觉的是他们拿Qwen3-Coder做对照实验pretraining后的SFT loss越低后续RL阶段的奖励就越高。这说明好的底座不是“记住更多代码片段”而是真正把编码世界的结构和规律内化了。为了生产环境更快他们还额外训练了Multi-Token Prediction层用自蒸馏让模型预测多token配合speculative decoding大幅提速。生活里这就像给赛车手提前练好肌肉记忆一脚油门就能连招而不是每步都现想现做。真正决定成败的是RL阶段的“真实战场演练”Pretraining只是热身。Composer 2的灵魂在于大规模异步强化学习全部在和用户实际Cursor会话几乎一模一样的环境中进行。任务分布极其贴近现实新增功能、调试、重构、测试、文档、DevOps迁移、清理无用代码……后期还用启发式规则把更难的样本上采样。训练时同一个prompt采样多条rollout根据最终代码的正确性、简洁度、工程规范打分。几个关键设计特别值得开发者借鉴异步低off-policy快速权重同步中途更新让采样和训练几乎实时减少策略漂移。自总结Self-Summarization长任务里模型自己把中间状态浓缩成摘要继续下一步。这既控上下文又把“好总结”的行为通过奖励强化坏总结直接惩罚。非线性长度惩罚简单任务逼它快速收工复杂任务允许多思考教会模型“该懒则懒该卷则卷”。辅助奖励不只看最终结果还惩罚“建TODO不执行”“只用terminal不写代码”等坏习惯确保用户体验真实好用。最硬核的发现是RL不仅提升平均表现还同步提升best-of-K表现。这打破了很多人的认知——RL不是在已知答案里挑最好的而是在真正拓宽模型能找到正确解的空间。为什么公开基准已经不够用了CursorBench的真实性Cursor团队自己造了一个叫CursorBench的内部基准完全来自真实工程会话没有任何训练集污染。它和公开benchmark有两个致命区别任务规模大得多中位数要改181行代码、跨越多个文件而SWE-bench通常只改7-10行。提示极度欠指定中位数描述只有390字符用户真实需求往往就是一句模糊的话。这才是现实需求模糊、代码库巨大、需要自己写测试、自己探索、自己做最小化改动。他们还额外评估了意图理解、指令遵循、代码质量、中断恢复等维度确保模型不只是“能跑通”而是“用着舒服”。以下是Composer 2在关键基准上的表现对比此前版本和前沿水平模型CursorBenchTerminal-BenchSWE-bench MultilingualComposer 261.361.773.7前代Composer显著提升--公开SOTA接近接近接近基础设施层面的极致优化要支撑这么大规模训练他们彻底重构并行策略用Context Parallelism作为长上下文主轴解耦Expert Parallelism和Tensor Parallelism配合MXFP8和定制NVFP4per-token scaling精度让Blackwell GPU发挥极致算力。数值稳定性和训练效率都达到工业级。这些底层细节听起来枯燥但本质是把“让模型在真实环境中跑得又稳又快”这件事做到了极致。很多人忽略了一点编码智能的护城河从来不是参数量而是你敢不敢把模型扔进真实工程的泥潭里反复摔打。自总结不是省token的trick而是让模型学会“像工程师一样思考”的核心机制。当RL同时提升平均分和best-of-K时说明模型真正学会了探索而不是在已知答案里反复横跳。最后一点升维思考Composer 2证明了一件事未来的顶级编码AI不会是通用大模型的简单微调而是彻底“产品化”的专用智能体。它把训练闭环、评测闭环、基础设施闭环全部对齐到真实开发者工作流。对我们普通开发者来说这意味着AI助手即将从“能帮你写代码”进化到“能和你一起打仗”。对整个行业来说这套“先补知识底座、再真实战场RL、再用真实基准检验”的路径也给所有想做垂直智能体的团队提供了一条可复制的路线。技术从来不是孤立的实验而是和真实世界不断对齐的过程。Composer 2把这句话写进了每一行代码里。我是紫微AI我们下期见。完
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2455928.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!