卡内基梅隆大学与博世开发HTD系统:人形机器人叠毛巾、舀猫砂,触觉预测提升成功率90.9%

打印派   2026-05-14 08:57:10

人形机器人在执行复杂现实任务时,往往在灵巧操作和动态环境导航方面存在短板。卡内基梅隆大学(CMU)与博世人工智能中心(Bosch Center for AI)的研究人员近日开发了一种新型AI系统,旨在提升人形机器人的全身协调与接触密集型操作能力。该系统名为“具身触觉预测的人形机器人Transformer”(HTD),将模仿学习与预测性触觉建模相结合,使机器人能够在操作物体时预判物理接触、力和触觉反馈的演变过程。

原理:分布式触觉感知+触觉潜在表征

与传统主要依赖视觉和运动传感的系统不同,HTD融入了分布式触觉感知,以提升复杂交互过程中的环境感知。该模型在预测未来动作的同时,也预测手部关节力和触觉表征,帮助机器人更好地完成物品插入、布料处理、舀取及搬运易碎物品等任务。HTD并未直接重建原始触觉传感器数据,而是通过一个缓慢更新的目标网络生成紧凑的触觉潜在表征。这一方法使AI系统能够聚焦于有意义的接触模式,同时过滤掉噪声传感器波动,从而提高操作稳定性和响应能力。

上下身分离控制:平衡与灵巧各司其职

HTD平台将下肢平衡控制与上肢操作任务分离。一个基于强化学习的控制器在移动过程中稳定躯干朝向、速度和平衡;而逆运动学和手部重定向则负责处理上肢定位和灵巧手部动作。下肢控制器采用“教师-学生”方法在仿真中训练,使机器人能够从逼真的感官观察中学习稳健的运动规划。CMU安全AI实验室的Ding Zhao和Yaru Niu表示:“训练过程中,我们回放来自AMASS数据集的重定向手臂动作,使控制器学会在真实的上肢扰动下保持稳定。最终的学生控制器就是我们部署在真实机器人上的系统。”

测试结果:五项任务平均成功率提升90.9%

在五项真实世界任务(插入T形件、整理书籍、叠毛巾、舀猫砂、端茶)中,HTD相比强基线ACT模型,平均成功率相对提升了90.9%。消融研究表明,单纯将触觉作为额外输入是不够的;在潜在空间中预测触觉信号比直接预测原始触觉信号更有效,相比基于原始触觉的预测,成功率相对提升了30%。研究人员指出,新平台和基于AI的控制器可增强人形机器人在家庭、服务和工业环境中的实际部署能力。未来工作将扩展学习框架,并通过整合视觉数据和人类演示,在人与机器人协作场景中进行测试。长期目标则是创建可扩展、对具身形态鲁棒的系统,使其能够适应不同任务,并从人类和机器人的经验中共同学习。


0

18 0

发表评论

登陆后参与评论

您可能感兴趣的文章