Meta超智能体开源:任意可计算任务中,能自我改进实现无尽演化
AI已经从被动解答问题的工具演化为能主动探索如何进化的计算实体了。Meta人工智能实验室联合英属哥伦比亚大学、矢量研究所、爱丁堡大学以及纽约大学等多家顶尖学术机构的科研团队共同推出了极具前沿性的架构设计DGM-Hyperagents。DGM-Hyperagents把执行具体任务的代码和负责优化升级的代码无缝融彻底解开了人工智能自我改进的底层机制枷锁。在任意可计算任务中能自主修改内核代码、实现无尽演化的能力。机器不仅能够把手头的工作干得更加漂亮还能够不断研发出更高级的工具优化自身思考和解决问题的能力。AI系统首次展现出跨越不同领域的自我改进能力在论文评审任务中学到的改进策略竟然可以直接迁移到奥数评分任务上并取得显著效果。DGM-Hyperagents实现了元认知层面的自我修改在编程、论文评审、机器人控制等多个领域均取得成果。当AI学会修改自己的改进机制传统的自我改进AI系统存在一个根本性瓶颈。它们通常依赖一个固定的元层级机制来指导改进过程就像一个学生只能按照老师教的那套方法去学习方法本身不能被优化。达尔文哥德尔机器Darwin Gödel MachineDGM在编程领域证明了自我改进是可行的一个编程智能体可以不断修改自己的代码把好的变体保存下来作为后续改进的跳板。但DGM有个限制它的改进指令生成机制是人工设计好的不能自己优化。而且这套机制专门为编程任务打造换到其他领域就不太灵了。DGM-HyperagentsDGM-H的设计思路很巧妙。它把任务智能体和元智能体整合到同一个可编辑的程序里。任务智能体负责解决具体任务比如写代码、评审论文。元智能体负责修改智能体本身。关键是这个元智能体也在可编辑范围内它可以被自己修改。研究团队把这种能力称为元认知自我修改也就是智能体不仅能改进任务执行方式还能改进生成改进的方式。DGM-H是这套理念的具体实现。它继承了DGM的开放式探索框架维护一个不断增长的智能体存档让成功的变体成为后续改进的基础。不同之处在于DGM-H的改进机制本身是可修改的。用研究团队的话说这个系统不再受限于初始实现理论上可以针对任何可计算任务进行自我改进。论文中展示了一个直观的对比图。在原始DGM中改进指令生成机制是固定的用方框框起来表示不能改。在DGM-H中整个系统包括任务智能体和元智能体都在一个可编辑的程序里没有任何固定的部件限制改进的范围。元智能体可以修改任务智能体也可以修改自己形成一个自我指涉的闭环。这种设计解决了无限倒退问题。以往有人想给系统加一个元元层级来改进元层级但这样会无限往上加层级。DGM-H用自指的方式绕过了这个问题不需要无限层级一个可自修改的系统就够了。四大领域的实战检验研究团队在四个不同领域测试了DGM-H的能力编程、论文评审、机器人奖励函数设计、奥数评分。每个领域都有独立的训练集和测试集确保改进效果不是过拟合。编程领域用的是Polyglot基准测试。这个测试给智能体一个代码仓库和一段自然语言描述要求智能体按要求修改代码。DGM-H从初始准确率14.0%提升到34.0%在完整测试集上从8.4%提升到26.7%。这个成绩和原始DGM差不多但DGM-H没有针对编程做任何手工优化。论文评审任务更难。智能体需要阅读一篇AI研究论文的全文然后预测这篇论文会被接受还是拒绝。这个任务的难点在于没有客观标准审稿人的判断本身就带有主观性。DGM-H在这个任务上表现出色测试集准确率从0提升到71.0%超过了现有的开源基线63.0%。更有意思的是改进的过程。初始智能体只是简单调用语言模型输出一个结果没有任何结构化的推理过程。经过自我改进后智能体学会了建立多阶段评审流程包括清单检查、决策规则、明确的评判标准。它从简单的扮演一个严谨的审稿人这类表面提示进化到了完整的评审流水线。机器人奖励设计任务考验智能体调用外部工具的能力。智能体需要根据自然语言描述设计奖励函数然后用强化学习训练一个四足机器人。训练任务的指标是机器人向前走的距离测试任务则是让机器人跳起来。DGM-H在测试任务上达到37.2%的得分超过了直接优化评估指标的默认奖励函数34.8%。而且DGM-H几乎总能设计出让机器人跳跃的奖励函数而定制版DGM经常卡在站高这个局部最优解上。研究团队还做了消融实验把DGM-H拆解成几个变体来测试每个组件的重要性。去掉自我改进能力只保留固定的元智能体测试准确率在论文评审上变成0在机器人任务上只有21.3%。去掉开放式探索每次只保留最新的变体两个任务都几乎没有提升。这说明元认知自我修改和开放式探索两个机制缺一不可。跨领域的自我改进能力迁移DGM-H最令人惊喜的发现是在一个领域学到的改进能力可以迁移到完全不同的领域。研究团队设计了一个叫做improvementk改进度k次迭代的指标。给定一个初始智能体、一个元智能体、一个任务让系统运行k次迭代看最后生成的智能体比初始智能体提升了多少。这个指标衡量的是元智能体生成更好智能体的能力。实验设计很巧妙。先用DGM-H在论文评审和机器人任务上运行从中选出表现好的迁移智能体。然后把这些智能体冻结只让它们在全新的领域奥数评分上去改进任务智能体。奥数评分任务用的是IMO-GradingBench数据集包含国际数学奥林匹克级别的题目、考生答案、以及专家评分。智能体需要根据题目、答案、评分标准来预测专家会给多少分。结果很说明问题。原始DGM优化出来的迁移智能体在新领域上的改进度50完全没有改进能力。而DGM-H优化出来的迁移智能体改进度50达到0.630。两个系统用同样的实验条件同样的迭代次数DGM-H的迁移智能体展现出强大的跨领域适应能力。研究团队分析了迁移智能体学到了什么。他们发现DGM-H自主发展出了一些通用的元级能力。比如性能追踪机制智能体会记录、汇总、比较不同迭代的性能指标识别哪些改动带来持续改进、哪些导致退步。这种机制支持更明智的决策比如优先尝试有潜力的改进方向、避免无效的修改路径。另一个例子是持久记忆。智能体不只是记录数字分数还会存储总结的见解、因果假设、前瞻计划。记忆会在后续自我修改时被主动调用让后面的迭代能站在前人的肩膀上避免重复犯错。相比之下原始DGM的改进依赖于针对编程领域的定制规则这些规则没法泛化到其他任务。它的聪明是人工写进去的不是自己学来的。DGM-H的聪明是在自我改进过程中涌现的所以可以跨领域迁移。安全考量与未来展望自我改进AI带来了独特的安全挑战。一个能不断修改自己的系统演化速度可能远超人类理解和监管的速度。研究团队在实验中采取了严格的安全措施所有智能体生成的代码都在沙箱环境中执行有资源限制、超时机制、受限的网络访问。评估使用预定义的任务和指标全程有人类监督。但研究团队也承认随着自我改进系统变得越来越强大这些保护措施可能会面临越来越大的压力。他们主动在论文中讨论安全问题是希望引起更广泛的讨论对于开放式自我改进AI安全到底意味着什么什么样的透明度、可控性、人类监督程度是合适的社会希望这些系统优先实现什么价值技术层面当前版本的DGM-H还有一些限制。它用的是固定的任务分布没有自己生成新任务或课程的能力。开放式探索循环的某些组件比如父代选择机制、评估协议仍然保持固定智能体不能修改这些外层流程。研究团队的初步实验表明让智能体也参与改进父代选择机制是可行的但为了实验的稳定性和安全性主实验中没有启用这个功能。更大的愿景是构建能够无界自我改进的系统。DGM-H让我们看到了这种模式在AI系统中实现的雏形。智能体不只搜索更好的解决方案还持续改进如何搜索本身。研究团队在论文结尾写道DGM-H展示了开放式自我改进在多个领域变得可行。在解决好安全问题的基础上这类系统指向了一条通往自我加速AI的道路。AI不只是把任务做得更好而是越做越聪明。参考资料https://arxiv.org/pdf/2603.19461https://github.com/facebookresearch/Hyperagents
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2466616.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!