国内机器人研究取得一项重要突破!将直接推动其实用化
北京日报客户端 | 记者 孙奇茹

2026-02-13 20:33 语音播报

城事

记者2月13日从上纬启元获悉,由北京大学董豪教授领衔的上纬启元团队近期取得重要突破,其不仅建立了一套评估机器人“空间感”的科学标准,更研发出一套全新的导航模型,让机器人真正开始理解空间。

你是否曾畅想过,只要对家里的机器人说一声“去客厅茶几右边的矮凳后面,把我的杯子拿来”,它就能像家人一样听懂并做到?现实是,尽管今天的机器人已经能识别出“茶几”“矮凳”这些物品,却对“右边”“后面”“绕一圈”这样简单的方位词一头雾水——它们本质上还是“路痴”,难以理解我们日常说话里的空间关系,更做不到灵活行动。

技术人员告诉记者,其实问题并不复杂。“你可以把过去的机器人操作理解为它只学会了‘认东西’,却没学会‘认路’。就像你教会了孩子辨认桌子、椅子,却没教他‘左边’‘远处’‘楼上’是什么意思。”机器人能识别物体,却感知不到物体之间的距离、方位、高低关系,更无法在移动中持续判断如何调整路线。因此,一旦听到“到两个沙发正中间停下”或“绕过餐桌走一圈”,它就不知所措。

给机器人装上“空间大脑”,一项名为NavSpace的研究成果已由北大、启元团队联合完成,并在真实场景测试中表现优异。简单来说,这项技术赋予机器人一种类似人脑的空间认知能力——让它不仅看见物体,更能判断物体的位置关系、距离远近、方向变化,并在移动过程中持续思考和调整。

空间感,听起来似乎是人类再简单不过的常识,对机器人来说,却是“从0到1”的跨越。当前,多数导航模型依赖对物体名称(语义)的识别,缺乏对距离、方位、层级和结构等空间属性的深刻感知与推理能力,导致执行此类指令时表现不佳。

为系统性地评估、提升这种能力,研发人员构建了NavSpace评测基准——业内首个专注于“空间智能”的导航测试集。它包含六大类、超过1200条需在仿真3D环境中实际完成的导航指令,涵盖垂直感知、精确移动、视角转换、空间关系、环境状态与空间结构。NavSpace如同给机器人的一套“空间认知”专业考题,其难度在于要求智能体进行持续的动态空间推理,而非单帧图像识别。

在此基础上,团队提出的SNav模型,核心创新在于研发了一套面向空间智能的自动指令、数据增强管线,能够从现有数据中自动生成大量涵盖六大空间能力的训练样本,从而将空间感知与推理能力高效地注入模型。据悉,SNav在NavSpace基准的所有类别上均超越了现有模型,证明了该方法的有效性。同时,在搭载于AgiBotLingxiD1四足机器人的真实世界测试中,SNav成功执行了多类复杂的空间指令,验证了其从仿真到真实的迁移能力。

此外,搭载该模型的机器人在办公室、校园等真实环境中,听懂并执行了如“去矮凳”“去二楼最近的沙发旁”等复杂指令,成功率远超以往模型。这意味着机器人开始从“实验室玩具”向“生活助手”转变。

这项突破将直接推动智能服务机器人走进真实场景。在家庭场景,扫地机器人能精准沿墙根、绕家具清洁,不再被困;管家机器人能听懂“去卧室衣柜左边第三个抽屉”,帮你取放物品。在养老陪护场景,机器人能安全搀扶老人走到指定位置,并感知周围环境,避免碰撞或跌倒。在酒店与商场,导引机器人可准确带你到达“扶梯后面第二个柜台”,送货机器人能将物品送至具体房间的指定角落。在工业物流场景,搬运机器人能灵活理解“摆到货架最上层靠左位置”,提升仓储效率。

快讯

编辑:匡峰

打开APP阅读全文
APP内打开