微软近日推出一款新型人工智能模型,能够将自然语言指令直接转化为双手机器人的实际操作。这一突破性技术通过解析复杂语言描述,使机器人能够自主执行需要双手协同的精细化任务,标志着人机交互从单一指令执行向情境化协作的重要演进。
该模型融合了多模态感知与运动规划算法,可理解包含物体空间关系、操作顺序及力度要求的自然语言指令。实验显示,机器人能根据"请用左手扶住蓝色积木,右手将红色圆柱轻轻插入顶部凹槽"这类复合指令,实时规划双手机械臂的协同运动轨迹。系统还具备动态调整能力,当操作过程中出现物体偏移时,机器人可自动修正动作路径以完成任务。
技术核心在于构建语言与物理动作的映射桥梁:模型首先通过视觉-语言预训练理解物体属性和场景语义,再结合强化学习优化动作序列的物理可行性。研究人员特别引入了触觉反馈模拟机制,使机器人能判断抓取力度是否适宜,避免损坏易碎物品。
微软表示,该技术将率先应用于工业装配、实验室自动化及家庭服务机器人场景。目前模型已在模拟环境中完成超百万次双手机械臂协同训练,下一步将通过与波士顿动力等机器人厂商合作推进实体测试。随着模型迭代,未来有望实现"请为生病家人冲泡蜂蜜柠檬茶"这类开放式生活化指令的自主执行。
28 0
登陆后参与评论
2026-01-23 09:50:43
2026-01-23 09:40:09
2026-01-23 09:38:02
2026-01-22 08:52:19
2026-01-21 10:09:09
2026-01-20 10:09:10
2026-01-20 10:01:34
2026-01-20 09:58:08
2026-01-20 09:47:48
2026-01-20 09:32:55
2026-01-19 09:29:13
2026-01-17 11:03:19