总部位于新加坡的机器人公司Sharpa近日发布了一款能够自主削苹果的人形机器人。该机器人使用双灵巧手完成这一精密操作,被视为机器人在精细化、高接触操作领域的重要进展。
该机器人搭载了名为MoDE-VLA(混合灵巧专家)的新系统,将视觉、语言、触觉与力觉传感相结合,以完成复杂动作。据公司介绍,其设计思路并非对每一根手指进行微观控制,而是由人类提供高层级指令,AI负责协调执行。这种混合控制方式有望使机器人在家庭与工作环境中更安全地执行精细操作。
去年12月,Sharpa已将旗舰产品SharpaWave灵巧手投入量产。该手部拥有22个主动自由度,公司称其已接近人类的操控水平。
灵巧操作的技术突破
近年来,视觉-语言-动作(VLA)模型推动了机器人操作能力的快速发展,使机器能够执行叠衣、取物等日常任务。然而,这些系统大多仍停留在使用简单夹爪进行“拾取-放置”的层面。削苹果等类人操作对机器人的协调能力、力控精度及实时手内调整能力提出了更高要求。Sharpa指出,削苹果任务涉及63个自由度的协同,需在多种技能间切换,并融合多源感官信息,传统模型难以稳定应对。
为突破灵巧操作的瓶颈,研究团队引入了一个双模块框架:IMCopilot与MoDE-VLA。IMCopilot(手内操作副驾驶)是一组通过强化学习训练的微技能,用于简化复杂手指动作。在数据采集阶段,它实现共享自主控制——人类控制大范围臂部运动,IMCopilot则负责削皮过程中苹果旋转等精细操作;在执行阶段,它作为可调用的底层技能供机器人使用。
MoDE-VLA则解决了多源感官信息融合的难题。它不再统一处理所有数据,而是通过专用通道分别处理视觉、力和触觉信号。采用混合专家架构,系统可动态激活相关模块(如检测接触事件),并在实时操作中优化动作,从而提高复杂操作的精准度与可靠性。
类人操作水平验证
研究团队在齿轮装配、充电插拔、管道整理和苹果削皮四项难度递增的任务中评估了系统性能。MoDE-VLA显著优于基线模型,在接触密集任务中的成功率提升了一倍。在最具挑战性的苹果削皮测试中,系统实现了73%的削皮完成率,成功完成了重复的削皮与旋转循环。在充电插拔等对毫米级精度要求较高的任务中,力觉专家模块提供了纯视觉模型难以实现的顺应性,保证了任务成功率。
Sharpa表示,其SharpaWave灵巧手通过先进传感与控制系统进一步增强了机器人的操作能力。22自由度手部集成6自由度力觉传感与十指尖触觉反馈,能够检测滑动、阻力等细微交互信号,配合VLA模型实现更灵敏、更自适应的操作。同时,IMCopilot系统将复杂手内协同任务交由强化学习训练的微技能处理,缓解了传统数据采集难题。在MoDE-VLA架构下,系统根据实时物理反馈持续优化动作,显著提升了灵巧操作的整体表现。
研究团队表示,通过将高频复杂的手指动作交由专用“副驾驶”处理,并利用专家模型解读触觉信息,正在为机器人执行精细家务与工业装配开辟新路径,使其最终具备与人类相当的灵巧操作能力。
13 0
登陆后参与评论
2026-03-31 10:28:23
2026-03-31 09:33:49
2026-03-31 09:31:45
2026-03-31 09:25:46
2026-03-30 10:31:05
2026-03-30 10:22:51
2026-03-30 10:19:32
2026-03-27 10:43:10
2026-03-27 10:36:45
2026-03-27 10:33:23
2026-03-27 10:01:05
2026-03-27 09:48:25