重大突破!北京科研团队提出全球首个“力位混合控制算法”
发布日期:2025-10-22 06:14:59
浏览次数:17
关键字:北京 “力位混合控制算法”
近日,我国科研团队在机器人算法领域取得重大突破,提出全球首个“力位混合控制算法”的统一理论。该算法无需依赖力传感器,就能让机器人同时学习位置与力的控制,相关任务成功率较只使用位置控制的策略提高了约39.5%。更值得关注的是,其相关论文目前已经斩获国际机器人学习大会杰出论文奖,这也是该奖项设立以来,首次由全中国籍学者团队摘得。
在北京通用人工智能研究院的实验现场,一个搭载了这项新算法的四足机械犬正有条不紊地执行擦白板的训练任务。科研人员借着这一实操场景向记者解释了“力位混合控制算法”的核心原理与突出优势。
北京通用人工智能研究院研究员贾宝雄:主流的视觉-语言-动作模型,它们其实都是拿相机照的照片当成输入,然后去做轨迹预测,这个轨迹就会使得(机器人)在擦(白)板这个过程里面,它可能没办法特别严格地贴合白板,所以导致擦不到这种情况。力位混控模型里面,我们尽可能地把力这个维度给它补齐,达到的效果就是在白板位置精确的基础上,我们能达到在白板上施加压力,所以能比较紧密贴合白板,擦掉板(上的字)。也就是说,我们不仅在原有的这个视觉-语言-动作模型上补平了力这个维度,也达到了同时能做力和位置的混合控制这样的效果。
科研人员介绍,当前广泛应用的视觉-语言-动作模型,在应对现实生活中的诸多任务时,往往会显得力不从心。核心问题就在于,这些任务大多涉及复杂的接触场景,比如擦黑板时,机械臂必须既贴合表面又保持适当的压力,开关柜门需精准感知内部的推拉弹簧结构,机器人需要的不仅是“走到哪里,手伸到哪里”,还需要“理解该用多大的力”。而在没有“力位混合控制算法”前,这些都需要通过力传感器来解决。
北京通用人工智能研究院研究员贾宝雄:力传感器其实都是加在固定的机械臂上比较多,安装起来会比较麻烦而且比较贵。力位混控的模型比传统的VLA模型(视觉-语言-动作模型)在需要力的这些任务上提高了近40%的成功率。