UniTac-NV开源:实现Xela与Contactile触觉传感器数据统一的新框架
在机器人感知领域触觉传感器种类繁多但算法往往高度依赖特定硬件限制了技术复用与迁移。针对这一挑战IROS 2025论文《UniTac-NV: A Unified Tactile Representation For Non-Vision-Based Tactile Sensors》提出了一种通用解决方案并同步开源高质量对齐数据集UniTac-NV为开发者和研究者提供实用工具。UniTac-NV数据集发布实现非视觉触觉传感器数据统一表征该工作核心在于设计一个编码器-解码器架构每个传感器如Xela uSkin和Contactile PapillArray拥有专属编码器将原始信号映射至共享的传感器无关潜在空间。通过在相同接触条件下采集匹配数据例如UR5e机械臂以恒定力按压同一物体模型可隐式学习跨传感器对齐关系。实验显示即使面对训练中未出现的复杂物体该框架仍保持良好泛化能力。数据采集覆盖三类几何体圆柱、方柱、六角柱及两种材料PLA硬质、TPU软质确保多样性。更关键的是下游任务如接触点几何估计仅需在一种传感器的潜在表示上训练即可直接应用于另一传感器无需微调或重训——这对降低算法部署成本具有实际意义。值得一提的是UniTac-NV并非纯科研产物。自2025年起其子集已被纳入伦敦帝国理工学院电子与电气工程系高年级“模式识别”课程作为真实多模态数据处理案例帮助学生理解跨域表征学习。对于从事机器人触觉、人机交互或具身智能开发的工程师而言该数据集提供了标准化的Xela触觉传感器与Contactile触觉传感器同步数据完整的物体CAD模型与实验协议PyTorch训练脚本与对齐示例代码。引用链接数据集地址https://github.com/JiannnH/UniTac-NV论文地址https://ieeexplore.ieee.org/document/11247617欢迎关注 “欣佰特科技” 持续为大家带来 “具身智能领域”前沿技术及应用详情可邮件咨询salescnbestec.com
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2408577.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!