机器人终于可以“看人类视频学技能”,枢途科技入选 CVPR 2026
在具身智能加速迈向真实世界的当下数据系统能力正成为决定机器人能力上限的核心变量。近日枢途科技宣布其联合清华大学、香港中文大学等机构完成的最新研究成果——《RoboWheel: A Data Engine from Real-World Human Demonstrations for Cross-Embodiment Robotic Learning》已被CVPR 2026正式录用。该研究提出了一种端到端数据引擎使机器人能够直接从真实世界的人类操作视频中学习为具身智能的数据获取路径提供了全新范式。打进顶会验证具身数据路线可行性作为计算机视觉领域最具影响力的国际会议之一CVPR长期代表着全球学术与产业技术前沿。其论文评审标准严苛录用率较低。此次RoboWheel入选CVPR 2026意味着枢途科技围绕“人类操作视频转具身数据”的技术路径首次在国际顶级学术体系中获得验证。这也从侧面印证了其在具身智能数据基础设施方向的技术积累已进入全球前沿梯队。直击行业痛点让物理合理的人机交互数据成为可扩展“燃料”在具身智能走向真实世界落地的过程中行业面临的核心挑战之一是机器人数据的获取成本极高且天然存在异构性。不同的机器人本体、灵巧手、机械臂以及多变的场景导致各家企业形成了严重的数据孤岛。针对这一难题RoboWheel 创新性地将 HOIHuman hand-Object Interaction人手-物体交互作为一个更通用的中间层。通过接入真实录制、在线视频和公开数据集等广泛的人类演示来源RoboWheel 能够将其转化为物理合理、可跨本体迁移的交互数据。这一端到端的数据引擎让机器人直接从真实世界的人类操作中学习成为可能为具身智能基础模型提供了持续、低成本且可泛化的数据“燃料”。同步开源 HORA 数据集推进产业基础设施化基于 RoboWheel 构建的数据引擎枢途科技研发团队同步开源了业界首个从真实场景人类视频中提取的具身多模态训练数据资源——HORA Hand-Object to Robot Action数据集。凭借极高的行业价值HORA 近日已成功入选 EAI-100 具身智能年度十大数据集。该数据集包含超过 15 万条高质量操作轨迹实现了毫米级超高精度并突破性地融合了高精度触觉信号。它将自采数据、动作捕捉数据和已有公开 HOI 数据统一到了一套专为机器人学习设计的数据表示中。从“做数据”到“做基础设施”枢途科技的路径并非单一数据提供而是指向更上游的定位——具身智能数据基础设施提供商。其核心逻辑是用视频扩展数据供给、用中间层打破本体隔离、用工具链实现规模化生产这一模式使其有机会在具身智能产业链中占据“底层入口”。随着具身智能从实验室走向真实场景数据正在成为新的生产要素。RoboWheel的提出标志着机器人训练数据获取方式的一次重要转向——从“机器采集数据”走向“人类提供数据”。未来随着数据规模与质量的持续提升具身智能的落地速度有望进一步加快。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2514794.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!