用2万小时人类视频预训练机器人,一场豪赌还是必经之路?
先说结论核心验证了“人类数据缩放定律”在灵巧操作任务上模型性能随人类预训练数据量对数线性增长为数据策略提供了可预测的依据。成功的关键在于“两阶段迁移”设计用大规模、廉价但“嘈杂”的人类数据奠基通用结构再用少量精确、昂贵的人机对齐数据“校准”到机器人本体解耦了规模与精确控制。方法能实现惊艳的少样本/单样本任务适应但其前提是依赖一个高质量、视角严格对齐的“人机对齐数据集”这本身构成了新的冷启动与工程门槛。从大规模人类数据作为“先验知识”的价值与部署代价出发拆解这条技术路径的可行性及现实门槛。让机器人学会像人一样灵巧地操作比如叠一件衬衫、拧开瓶盖一直是具身智能的难点。难在哪数据。传统的强化学习或模仿学习需要机器人在物理世界中进行海量试错或由专家进行大量遥操作演示成本高昂效率低下且很难泛化。最近看到EgoScale这项研究它提供了一条看似不同的路径先用2万小时的人类日常操作视频“教”模型理解世界和手的互动再用极少量的机器人数据“对齐”和“微调”。结果是在叠衬衫等任务上达到了88%的成功率并且只用了1条机器人示范。这听起来像是一个捷径。但它的底层逻辑是什么这条路真的能走得通吗更重要的是如果我们自己想做代价是什么为什么说“用人教机器”是个好思路过去教机器人思路很直接让机器人自己学。但这就像让一个婴儿从零开始摸索世界每个基础动作都需要无数次的碰撞和反馈极其低效。而且机器人本体的数据采集环境苛刻不能摔、不能坏、周期长。而人类数据则完全不同。我们每天都在生成海量的第一视角操作数据比如各种可穿戴设备录像。这些数据极其丰富、多样覆盖了长尾场景。最关键的是获取成本相对低廉——你不需要为每一帧数据付出机器磨损或专家操控的时间。EgoScale的核心假设就在于尽管人类和机器人的“身体”形态学不同但许多任务的底层逻辑和物理约束是相通的。拧瓶盖需要旋转施力用工具夹取物体需要对准和握持这些“意图”和“技能基元”可以从人类视频中抽象出来。预训练阶段就是让模型从这些视频里学习手腕运动、手部姿态与视觉观察、语言指令之间的关联建立一个关于“手眼协调”的通用世界模型。这比从零开始的机器人学习起点高太多了。拆解EgoScale的“三级火箭”这项研究的方法论很清晰可以看作三段式的“升级”第一级大规模人类预训练——建立“常识”模型在超过2万小时的人类第一视角视频上进行训练。这里的关键监督信号是从视频中估算出的“相对手腕运动”和通过优化算法“重定向”到机械手关节空间的手部动作。注意这些动作标注是算法估算的有噪声也不精准对应任何一台真实机器人。这个阶段的目标不是学会控制某台特定机器而是建立一个强大的、与动作相关的视觉语言表征。论文最有趣的发现之一是“人类数据缩放定律”在这个阶段模型的验证损失随着数据规模小时数的增加呈现近乎完美的对数线性下降。而且这个“损失”能很好地预测下游机器人任务的表现。这意味着在这个问题上堆人类数据量至少在目前看到的范围内收益是明确且可预测的。这为数据策略提供了难得的定量依据。第二级人机对齐中期训练——完成“具身化校准”有了通用表征但怎么用在机器人上直接拿来控制肯定不行因为观察视角相机参数、位置、动作空间关节限制、动力学都不同。这里就需要一个小而精的“对齐数据集”。EgoScale用了大约50小时的人类数据和仅4小时的机器人数据关键点是这些数据是成对采集的。人类和机器人在相同的桌面场景、使用相同的相机配置头戴腕部执行相似任务。这相当于建立了一个“翻译词典”告诉模型“你看人类做这个动作时视觉观察是这样的机器人做类似动作时视觉观察是那样的它们对应的动作指令分别是这样转换的。”这个阶段通常冻结大部分网络参数只微调视觉编码器和动作预测模块。它的目的不是教新技能而是将第一阶段学到的通用表征锚定到目标机器人的具体感知与控制接口上。这是实现从“人”到“机”迁移的桥梁。第三级单条示范任务微调——实现“快速适应”经过前两阶段的准备模型已经具备了强大的先验和对目标机器人的理解。此时面对一个新任务比如叠一件从未见过的衬衫只需要提供1条或几条该任务在目标机器人上的成功示范配合这个任务的一些人类对齐数据用于加强理解进行轻量微调模型就能快速适应。这就是论文中88%成功率的由来。它本质上是一种基于强大先验的少样本学习而非真正的“零样本”。那条机器人示范提供了任务特定的“钥匙”打开了模型已具备的通用技能库。看清代价“缩放定律”很美但脚下的台阶很高这个方法展示的前景很吸引人但我们不能只看结果得掂量一下门槛。首先数据门槛极高。2万小时高质量、带动作标注的人类第一视角视频本身就是一个巨大的资产。论文融合了多个现有数据集但想从头构建或大规模扩展在数据采集、存储、处理SLAM、姿态估计上的工程复杂度不容小觑。那个“小而精”的人机对齐数据集50小时人4小时机其采集需要严格的实验设置同步、标定、配对成本同样不菲。其次对“对齐”的依赖很强。整个流程的顺畅运行严重依赖第二阶段那个高质量的对齐数据集。如果机器人形态发生变化比如从五指手换成三指夹爪或者相机配置变了很可能需要重新采集对齐数据。这带来了一定的僵化性并非“一次对齐终身通用”。再者计算成本不低。在第一阶段用256块GB200 GPU训练10万步这显然是大型研究机构的配置。虽然预训练可以是一次性的基础模型投入但对于大多数团队来说这依然是个需要权衡的起点。所以更现实的考量是这个方法或许不适合从零开始的创业小团队而更适合拥有或能访问大规模人类视觉数据、且有机器人实验平台的机构。它更像是在为机器人智能打造一个“基础模型”前期投入巨大但一旦建成有望在众多下游任务上实现快速部署。它适合谁从实验室原型到产品化的漫漫长路站在技术选型的角度看EgoScale的路径为机器人灵巧操作提供了一条有章可循的、可扩展的路线图。它明确指出了数据规模的价值以及分阶段解耦难题的思路。对于学术界和大型企业研究院这无疑是一个值得深挖的方向。探索更高效的人类数据利用方式如更好的动作表征、更弱的监督设计更鲁棒的对齐机制是接下来的重点。但对于追求产品化、解决特定场景问题的团队来说直接套用这套范式可能过重。如果任务域非常狭窄比如只做拧瓶盖传统的、针对性的机器人模仿学习可能更快、更直接。这套方法的价值在任务多样性和快速适应能力要求高的场景中才会充分凸显。最后一个值得持续观察的点是这种基于人类视频预训练的“基础模型”其技能上限在哪里它能否处理对力度反馈要求极高的任务如插拔紧密的接口或者需要复杂多步推理的组装这些问题论文还没有回答也是这条技术路线需要继续突破的边界。如果按这个思路去做一个项目我会先问自己我们有没有能力获取或构建那个关键的“人机对齐数据集”这是启动整个流程的第一个现实台阶。如果连这个都很难那么后续的缩放定律再美好也暂时与我们无关。更务实的选择可能是先用它验证某个垂直场景的可行性再考虑是否要投入资源攀登“预训练”这座高山。最后留一个讨论点如果你要启动一个类似的机器人灵巧操作项目在资源有限的情况下你会优先将精力投入收集更多样但可能更嘈杂的人类数据还是优先打磨一个规模较小但人机对齐精度极高的核心数据集
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2451068.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!