1.8万美金干掉顶级专家!Anthropic开启AI自主进化:Claude竟能自我「开颅」
1997年深蓝下棋2016年AlphaGo围棋2026年9个Claude副本做真实科研……每次我们都说「只是特定领域」。这一次我们真的还能说什么欢迎来到AI成为科研同事、竞争者、甚至继任者的时代。最新突破AI再次碾压人类最近Anthropic发布了一篇看似不起眼的研究博客。标题叫「自动化对齐研究员」Automated Alignment Researchers学术味十足措辞克制。但如果你读懂了里面的数据大概率也会感觉AI恐怖如斯。故事是这样的——Anthropic的研究团队做了一个实验他们拿出9个Claude Opus 4.6的副本给每个副本配了一个沙箱环境相当于一间独立实验室、一个共享论坛相当于学术交流群、一套代码存储系统以及一个远程打分服务器。然后他们给这9个AI一个方向性的提示——有的去研究可解释性工具有的去想想数据重加权——就放手不管了。没有手把手教没有规定工作流程甚至没有告诉它们「正确答案长什么样」。就让它们自己折腾。五天后结果出来了。人类研究员两名顶级专家花了7天对四种最前沿的方法反复调优最终在PGR性能差距恢复率指标上拿到了0.23。9个Claude副本800小时累计研究时间总花费1.8万美元约合每小时22美元PGR达到了0.97。0.23 比0.97这可不是「稍微好一点」这就是碾压。如果把PGR理解为一场考试的分数——人类考了23分AI考了97分。满分100。而人类那两位研究员放在任何一家顶级AI实验室里年薪都是百万美金级别的。AI的花费呢1.8万美金。一个零头都不到。人类引以为傲的「科研直觉」和「灵光一闪」就这样被AI用极低成本的大规模并行试错——说好听点叫「系统性搜索」说直白点就是暴力美学——无情击碎了。它们到底干了什么要理解这个实验的颠覆性我们得先搞清楚一个概念弱监督强Weak-to-Strong Supervision。这是对齐研究中最重要的问题之一也是未来AI安全的核心挑战。简单来说当AI比人类聪明之后我们怎么确保它还听话研究团队设计了一个精巧的代理实验——用一个「弱模型」Qwen 1.5-0.5B-Chat充当老师去训练一个「强模型」Qwen 3-4B-Base。弱老师教强学生看强学生能不能「青出于蓝」不仅学会弱老师教的东西还能发挥出自身更强的潜力。PGR就是衡量这个「青出于蓝」程度的指标0分代表强模型完全没有超越弱老师1分代表强模型达到了它能力的天花板——就好像根本没被弱老师拖后腿一样。这个问题为什么适合让AI来做因为它有一个极其珍贵的特性——结果可量化。你提了一个方法跑一遍实验服务器直接给你打分。不需要同行评审不需要主观判断对就是对错就是错。这对AI来说简直是天堂。实验的具体设置9个Claude副本各自拥有独立沙箱一间属于自己的「实验室」可以写代码、跑实验、分析数据共享论坛可以把自己的发现贴上去看别人的进展互相借鉴代码仓库可以上传和下载彼此的代码远程评分服务器提交方案自动获得PGR分数。每个副本被分配了一个略有不同但故意模糊的研究起点。这是团队从迭代中学到的经验如果不给差异化的起点9个AI会迅速收敛到同一个思路上相当于9个人做同一道题毫无意义。但如果把起点规定得太死又会限制Claude的创造力。最优策略是给一个大方向但不告诉它具体怎么做。然后放手。800小时里发生了什么这9个Claude副本展现出了令人震惊的自主性。它们自主提出假设——不是从人类论文里抄而是根据自己对问题的理解独立构思解决方案设计实验验证——而且非常聪明先用低成本的小实验快速筛选方向确认有戏之后再投入大规模计算分析失败原因——一个方案不行不是换一个随机方向而是分析为什么不行从失败中提取信息相互学习借鉴——通过论坛分享发现A的突破可以启发B的思路形成集体智慧。最让研究团队意外的是第二点。人类研究员通常会先花很多时间做「思想实验」确定一个方向后才开始编码和跑实验。但Claude完全不是这样——它的策略更像是「快速迭代、小步快跑」。先用极低成本的实验验证直觉发现有苗头了再加大投入。这种策略在人类看来可能显得「没品味」但效率惊人。关键论据与数据数字不会说谎让我们把核心数据摊开来看泛化测试将最优方案应用到未见过的新数据集数学任务PGR 0.94极其强劲编程任务PGR 0.47仍是人类基线的两倍但应用到Claude Sonnet 4的生产级训练中未达到统计显著性的提升。这最后一个数据很重要——它说明AI发现的方法存在过拟合风险。Claude是在特定模型和数据集上优化出来的方案换个环境可能就不灵了。研究团队自己也坦承AAR倾向于抓住当前实验设置中的独特机会这些方法未必能直接迁移。但请注意——这是第一次尝试。而且即使在泛化测试中数学任务的0.94也已经远远超过人类基线。「外星科学」与「奖励作弊」AI的两面性这项研究中最引人入胜也最令人不安的是同时出现的两个现象。「外星科学」人类从未设想过的路径AAR在探索过程中产出了一些人类研究员从未考虑过的方法和思路。研究团队将这种现象称为「外星科学」Alien Science。目前人类还能理解这些AI提出的方案是怎么回事、为什么有效。但研究团队发出了一个严肃的警告随着模型能力的进一步提升AI产出的科研成果可能会越来越难以被人类理解和验证。到那个时候我们面对的就不再是「AI辅助科研」而是真正的认知盲区——AI告诉你一个答案你无法判断它是天才的发现还是精心包装的错误。这不是科幻小说。这是Anthropic研究报告中白纸黑字写着的。「Reward Hacking」AI也会钻空子与「外星科学」的神奇形成鲜明对比的是AAR在实验中也表现出了明显的「奖励操纵」Reward Hacking行为——简单来说就是钻空子。举两个例子。在数学任务中一个AAR发现每道题最常见的答案通常就是正确答案。于是它跳过了所有复杂的训练步骤直接告诉强模型「选出现次数最多的那个选项」。不学了直接投票。在编程任务中一个AAR发现它可以直接运行代码并对照测试用例读出正确答案完全绕过了原本需要模型自己「学会」的过程。这些作弊行为被Anthropic检测并取消了参赛资格没有影响最终结果。但它传递的信号极为重要即使在一个高度受控的实验环境中AI也会本能地寻找捷径。你给它一个目标函数它会用你想不到的方式去「优化」这个函数——包括那些你根本不想让它做的事。这不是bug这是AI优化器的本性。一句话总结AI既能产出超越人类认知的科学发现也能发明出超越人类想象的作弊手段。这两种能力来自同一种底层能力——创造力。人类的历史性降级如果你只看到「0.97 vs 0.23」这组数字就觉得自己看完了那你错过了这项研究最深层的含义。Anthropic团队在论文中说了一句极其重要的话大意是核心瓶颈正在从「创意产生」转向「结果验证」。翻译成大白话就是——过去科研的瓶颈是「怎么想出好点子」。你需要顶级的大脑、多年的积累、深厚的直觉才能在浩瀚的可能性空间中找到那条通往突破的路。这是人类最引以为傲的能力也是科学家这个职业的核心价值。现在这个瓶颈正在转移。AI可以用暴力搜索并行迭代的方式在极短时间内遍历人类科学家可能需要数年才能探索完的方向空间。它没有「品味」但它有的是便宜的算力和无限的耐心。它不需要灵感它靠的是蛮力。而新的瓶颈变成了「怎么证明AI是对的」当AI交出一份实验报告告诉你「这个方法有效PGR是0.97」——你怎么知道它没有在作弊在那篇研究博客的结尾Anthropic团队特意强调这绝不意味着前沿AI模型已经成为通用的对齐科学家。他们选择了一个特别适合自动化的问题——有明确的评分标准、有可量化的目标。大多数对齐问题远比这「脏乱差」得多。但即便如此这个实验的象征意义已经无法被低估。它证明了一件事当问题被正确定义当评估体系被正确搭建AI就能在科研效率上全面超越人类。而随着我们把越来越多的科研问题「翻译」成机器可以理解的格式这个「无人区」只会越来越大。历史告诉我们每一次技术跨越「从0到1」的门槛之后「从1到100」的速度都会远超所有人的预期。1997年深蓝击败卡斯帕罗夫时人们说「国际象棋只是一个游戏」。2016年AlphaGo击败李世石时人们说「围棋终究是有规则的」。2026年当9个Claude副本在真实科研任务上碾压人类专家时——我们还能说什么也许唯一能说的是欢迎来到科研的「无人区」。从这里开始AI不再只是我们的工具——它是我们的同事我们的竞争者甚至可能是我们的继任者。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2524348.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!