
近日,北京人形机器人创新中心(以下简称“北京人形”)正式开源面向具身小脑能力的XR-1模型,以及为XR-1等模型提供数据训练支持的RoboMIND 2.0和ArtVIP。其中,XR-1是国内首个且唯一通过具身智能国标测试的具身VLA(视觉-语言-动作)大模型。基于以上开源成果,能让机器人真正在各类应用场景中能干活、会干活,推动国内具身智能行业迈向“全自主、更好用”的新阶段。
当前具身智能行业的核心痛点是“视觉感知”与“动作执行”割裂,机器人难适应环境变化。北京人形自主研发的XR-1模型具备“知行合一”能力,以跨数据源学习、跨模态对齐、跨本体控制为技术内核,其首创的UVMC(多模态视动统一表征)技术可搭建视觉与动作的映射桥梁,让机器人像人一样“条件反射”,将看到的画面瞬间转化为身体相应动作的本能反应。
具身天工2.0人形机器人完成倒料任务。 北京人形/供图
搭载XR-1的机器人能完成复杂倒料任务,基于XR-1框架微调后的轻量级VLA模型,能让机器人具备快速精确物料分拣能力。更具标杆意义的是,依托XR-1模型的机器人在业内首个连续开关穿行5扇门的测试中达成全自主操作。
为构建全链条开源生态,加速机器人应用落地,北京人形去年12月推出大规模、多构型智能机器人数据集和Benchmark——RoboMIND,累计下载量已超15万次。北京人形最新发布RoboMIND 2.0,该数据集的机器人操作轨迹数据达30+万条,扩展了11个涵盖工业、商用、家庭的场景,RoboMIND 2.0增加了1.2万条带触觉操作数据,新增开源了基于ArtVIP的大量仿真数据,不仅能降低模型训练的门槛,也能显著提升机器人的任务成功率。
同时,北京人形发布的高保真铰接物体数字资产数据集ArtVIP,则提供超1000个高保真数字孪生铰接物品(如转椅、抽屉等带有可活动关节的物体),覆盖6大场景类型,实现了全场景物品可交互。测试表明,在机器人训练中提升ArtVIP的仿真数据比例,能提升机器人在不同任务执行中的成功率。

北京人形与李宁运动科学实验室合作开展人形机器人跑鞋测试,“天工”机器人跑者在揭牌仪式现场演示动态运动能力。北京人形/供图
目前,北京人形已与多家合作伙伴达成合作,将人形机器人部署到各行各业中。其中,搭载XR-1的“具身天工2.0”“天轶2.0”已进入福田康明斯发动机工厂,在“无人生产线”上自主完成料箱取放、搬运任务测试。北京人形还与中国电科院合作落地了人形机器人高危电力巡检项目,以及与李宁运动科学实验室合作开展人形机器人跑鞋测试。近期,北京人形还与拜耳签订合作协议,共同推动人形机器人及具身智能技术在制药生产中的技术开发。
更多热点速报、权威资讯、深度分析尽在北京日报App
配配查提示:文章来自网络,不代表本站观点。