KAIST 提出 MTL:让编程智能体跨领域“搬运“记忆,而非困守单一任务孤岛
一句话总结这篇论文首次系统研究了编程智能体的 Memory Transfer LearningMTL通过构建跨领域统一记忆池在 6 个编程基准上平均提升 3.7%最高 8.3%并揭示了抽象度决定可迁移性这一核心规律。 背景问题现有记忆增强型编程智能体普遍存在以下局限1️⃣ 记忆的生成与检索被限制在同一任务域甚至同一基准内部无法利用 SWE、ML 研究、竞赛编程等异构任务间共享的运行环境、语言栈和依赖基础设施2️⃣ 缺乏对哪些知识可迁移、为什么可迁移的系统性机制分析3️⃣ 先前的统一记忆池工作混杂了 Web、推理等非编程任务错失了编程领域特有的可迁移模式。 方法简介作者构建了一个简洁的两阶段记忆智能体框架离线生成记忆 推理时检索 Top-N 相关记忆注入系统提示。记忆被组织为四种抽象度递增的格式Trajectory完整动作-观察链、Workflow可复用动作子序列、Summary任务经验段落、Insight标题描述任务无关内容。跨域记忆池定义为 Pτ(Bi) { M(k)τ | t(k) ∉ Bi }即评测某基准时只使用其他所有基准产生的记忆严格隔离同域信息。检索采用 text-embedding-3-small 的余弦相似度匹配并用 DBI 与 LISI 指数定量刻画四种记忆格式在嵌入空间中的任务无关性。 实验结果在 GPT-5-mini 上MTLInsight在 6 个基准LiveCodeBenchv6、Aider-Polyglot、SWE-Bench Verified、Terminal-Bench2、ReplicationBench、MLGym-BenchPass3 平均提升 3.7%ReplicationBench 与 MLGym-Bench 分别涨 7.8% 和 8.3%。对比强基线MTL 仅用 431 条记忆就超过用 5,899 条记忆的 AgentKB1.7%与 ReasoningBank2.9%展示出显著的效率优势。机制分析显示转移收益中仅 5.5% 来自算法策略其余 94.5% 来自迭代工作流纪律、测试驱动验证、API 合规、环境适应等元知识任务无关 Insight 比任务特定 Insight 额外涨 1.1%。扩展性实验表明效果随记忆池规模与源域数量单调上升跨模型迁移GPT-5-mini ↔ DeepSeek V3.2 ↔ Qwen3-Coder-480B同样全面优于零样本证明元知识的模型无关性。✨ 一句话点评MTL 用抽象度—可迁移性的正相关关系首次揭示了编程智能体记忆的本质真正能跨域复用的不是代码片段而是如何稳妥行动的元程序学——这意味着未来自进化智能体应当从存轨迹走向炼心法。学AI大模型的正确顺序千万不要搞错了2026年AI风口已来各行各业的AI渗透肉眼可见超多公司要么转型做AI相关产品要么高薪挖AI技术人才机遇直接摆在眼前有往AI方向发展或者本身有后端编程基础的朋友直接冲AI大模型应用开发转岗超合适就算暂时不打算转岗了解大模型、RAG、Prompt、Agent这些热门概念能上手做简单项目也绝对是求职加分王给大家整理了超全最新的AI大模型应用开发学习清单和资料手把手帮你快速入门学习路线:✅大模型基础认知—大模型核心原理、发展历程、主流模型GPT、文心一言等特点解析✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑✅开发基础能力—Python进阶、API接口调用、大模型开发框架LangChain等实操✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经以上6大模块看似清晰好上手实则每个部分都有扎实的核心内容需要吃透我把大模型的学习全流程已经整理好了抓住AI时代风口轻松解锁职业新可能希望大家都能把握机遇实现薪资/职业跃迁这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2547379.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!