英国研究人员获英伟达资助 致力开发舞动人形机器人

打印派   2026-01-17 11:01:15

伦敦大学学院计算机科学系副教授程旭洲(音译,Chengxu Zhou)近日获得英伟达学术资助,将专注于开发由音频驱动的实时全身运动技术,以提升人形机器人的性能。这位机器人学与人工智能领域的教授将通过该资助获得训练与部署所需的计算资源。

资助资源包括两台英伟达RTX PRO 6000 GPU和两台Jetson AGX Orin设备。这些设备将显著加速迭代过程、缩短训练周期,从而减少从仿真到实体机器人测试所需的时间。该资助属于英伟达学术资助计划的一部分,该计划为不同学科领域的研究人员提供计算资源支持。

音频驱动的人形机器人运动
程旭洲及其团队正在推进"节拍到身体"项目,探索人形机器人通过富有表现力、符合物理规律且安全的全身动作对声音做出响应的可能性。该系统摒弃预设脚本代码,允许机器人根据节奏、重音和音量波动等音频线索实时调整动作。

例如,掌声或音乐的稳定节奏可引导机器人的步速与身体姿态,而音调或强度的变化则能催生从急促跳跃到流畅舒展等多种运动风格。该项目旨在让机器人能够动态响应并随音频变化实时调整行为。这一过程中,以音频为先导的机上执行至关重要:研究人员利用GPU算力进行大规模仿真训练,同时Jetson硬件支持在机器人端实现低延迟推理,减少对离线处理的依赖,确保对声音信号的快速响应。

相关研究背景
程旭洲的项目与越来越多将声音作为人形机器人控制信号的研究方向相契合。2025年的一项研究已展示机器人如何直接从音乐和语音生成富有表现力的步态与手势,而无需依赖预设运动模板。早期研究也证明人形机器人可将舞蹈动作与音乐节奏及情感同步。此外,音频-视觉追踪领域的互补研究使机器人能够定位并响应声源,凸显了声音作为人机交互新兴直觉接口的潜力。

应用前景与未来工作
在机器人学领域,该项目推动了富有表现力的全身运动及更自然的人机交互研究。短期来看,该技术可用于交互式装置与表演场景;长远而言,或能实现多机器人在共同音频信号下的基础协同作业。

该研究在伦敦大学学院人形机器人实验室进行,该实验室专注于人形机器人的机器学习、控制系统与交互技术。项目下一阶段将重点扩展基于仿真的训练,并在真实人形机器人上测试早期声音响应行为的闭环效果。


0

12 0

发表评论

登陆后参与评论