腾讯科技
发布于

波士顿动力Atlas再进化:人形机器人能自己应对突发状况了

捡地上物体都要精确设计?Atlas暴露人形机器人最大难题——适应性

8月21日消息,波士顿动力公司(Boston Dynamics)与丰田研究院(Toyota Research Institute,TRI)在机器人与人工智能领域取得重要进展:双方基于大行为模型(Large Behavior Model,LBM)研发的Atlas人形机器人,成功完成了一系列对身体协调性与实时应变能力要求极高的复杂任务。

在最新发布的演示视频中,Atlas展现了包装、整理、分类等多种操作,全程动作自然流畅。更具突破性的是,当研究人员故意制造突发干扰,例如突然合上盒子并将其推到地面时,Atlas依然能够自主调整策略,从容完成任务

这一成果的关键在于LBM的应用。不同于传统机器人“腿脚移动”与“手臂操作”分离控制的方式,LBM将机器人手脚视为“平等”执行器,实现了全身一体化的智能协同。借助该模型,以往需要繁琐手动编程才能实现的功能,如今可以快速拓展,无需编写任何新代码。

业内人士认为,这一突破不仅提升了人形机器人的实用性,也预示着未来在物流、制造、服务等领域,机器人将具备更强的自主适应能力。

01 大行为模型+Atlas:迈向通用机器人

要让人形机器人真正发挥潜力,它们需要具备一系列综合能力:不仅要能灵活操控各类物体——无论是坚硬的、柔软的、沉重的、精细的、固体的还是可形变的,还要能协调全身动作,自主调整身体状态、重组周围环境、避开障碍,并在突发干扰中维持稳定。

正因如此,波士顿动力与丰田研究院认为,构建基于AI的通用机器人,才是实现这些能力,且是最终推动人形机器人大规模部署的可行路径。

借助语言指令驱动的策略模型,Atlas成功完成了需长时间连贯操作的复杂任务。这些策略模型充分发挥了人形机器人特有的动作能力,包括步态控制、双脚精确定位、下蹲、重心转移、自我防碰撞等——这些都是完成现实移动操作任务的关键。

构建策略模型的方法主要包含四个基本阶段:

  • 遥控操作采集具身行为数据:通过真实机器人与仿真环境,由人类操作员演示动作并收集数据。

  • 数据处理、标注与整理:对采集的数据进行清洗、标注和结构化处理,以便用于机器学习流程。

  • 训练神经网络策略模型:基于整合后的多任务数据训练统一的神经网络策略模型。

  • 策略模型系统评估:通过一组测试任务检验策略模型的实际表现。

图:构建策略模型的四个步骤

评估结果将直接反馈至前期阶段,指导是否需要补充数据、调整网络结构或优化推理方式,形成持续迭代的闭环优化过程。

图:策略模型的构建原理

这个策略模型以图像、本体感知和语言指令为输入,以30Hz的频率实时输出控制Atlas全身的动作指令。模型采用扩散Transformer架构,结合流匹配损失(Flow Matching Loss)进行训练。

并且,整个过程遵循三大核心原则:

  • 最大化任务覆盖范围:人形机器人天然适合执行多种操作任务,但要在保持动作质量的前提下,采集动态任务数据仍是一大挑战。

为此,研究人员开发了一套先进的遥控操作系统,融合Atlas的模型预测控制器(MPC)与定制VR交互界面,使操作员能够精准控制机器人,完成从精细手部操作到全身协同运动的各类复杂任务。

  • 训练通用策略模型:大量实践表明,基于多样化任务数据训练出的通用策略模型,比单一任务专用模型具有更强的泛化能力。

研究人员采用语言驱动的多任务策略模型,整合了来自Atlas全身机器人、上半身操控测试系统(MTS)以及TRI Ramen机器人的数据,构建出一套通用策略模型架构。这种方式不仅简化了部署流程,实现了跨任务和跨平台策略共享,也为我们迈向自主智能行为奠定了重要基础。

  • 构建支持快速迭代与科学评估的基础设施:快速尝试不同设计固然关键,但更核心的是能否科学、准确地评估策略模型的优劣。通过结合仿真模拟、硬件在环测试以及面向生产环境的机器学习设施,我们能够高效探索数据与策略模型的设计空间,持续提升机器人的整体性能。

02 实现长周期端到端操作任务

在被称为“Spot维修站”的任务中,机器人综合运用移动、步伐调整、下蹲等全身动作,以及抓取、重新握持、摆放与滑动等精细操作,完成以下三个子任务:

  • 从货架取下一只Spot机械腿,折叠后放到另一侧货架;

  • 取下货架面板,抽出底层箱子,将面板放入箱内;

  • 清空货架后,转向蓝色箱子,取出其中的Spot零件,投入蓝色手推车中。

在整个演示中,Atlas仅依靠高层语言指令触发各子任务,全程自主执行,未依赖人工分段控制。

该任务的突出特点是策略模型对意外事件具备响应与恢复能力。例如当零件掉落或箱盖意外关闭时,机器人可自主调整应对行为。

早期版本的策略模型并不支持这类反应,但通过示范恢复动作并重新训练,研究人员能够快速嵌入新的应对策略,无需调整算法或工程框架——因为这些模型能够直接基于传感器实时感知环境状态,并依照已学习的经验做出响应。

这一进步标志着Atlas行为开发迈入新阶段:构建新操作行为不再要求深厚的技术背景或多年研发经验,从而为机器人规模化行为迭代打开了全新可能。

03 拓展多样化操作能力

通过单一的语言引导策略模型,Atlas操控测试系统(MTS)不仅能够完成基础的拾取与放置任务,还能胜任更复杂的操作,例如:系绳结、翻转凳子、铺展桌布,甚至操控重达约10公斤的汽车轮胎。

这类物体(绳索、布料、轮胎)具有几何可变性和操作序列复杂性,传统编程方式极难实现。而在大行为模型(LBM)框架下,机器人学习方式高度统一:无论是堆叠积木还是折叠T恤,只要有示范,就能快速掌握。

03 策略模型加速:无需重新训练即可调速

策略模型的一大优势在于:无需重新训练,即可在推理阶段直接调整执行速度。

在实测中,策略模型可在1倍至3倍速范围内灵活运行。研究表明,在MTS和Atlas平台上,执行速度通常可提升1.5到2倍,且不影响任务完成质量。尽管某些任务因物理动态限制无法过度加速,但这证明我们已在部分场景中突破人类遥控操作的速度极限。

Atlas拥有50个自由度(DoF),运动范围广、灵活性极高;而Atlas MTS专注于纯操控任务,具备29个自由度,用于探索纯操控任务。每个夹爪拥有7个自由度,支持多种抓取模式(如力量抓握和精细捏取)。系统依靠头部搭载的高动态范围(HDR)立体摄像头,为遥操作提供环境感知,同时也为策略模型提供视觉输入。

04 高质量数据驱动:MPC框架奠定控制基础

研究团队基于波士顿动力成熟的模型预测控制(MPC)框架,构建了一套先进的遥控操作系统。这一系统不仅能在保持平衡、防止自碰撞的前提下实现精细操控,还能持续逼近Atlas硬件潜力的上限。

结合VR头显,操作者可沉浸式进入机器人的工作环境,接收与策略模型一致的感知输入。定制化的VR界面实时显示机器人状态、控制目标、传感器读数和触觉反馈,使人机操作实现高度同步,为策略模型的学习积累了丰富且高质量的数据。

早期的VR遥控系统主要靠头显、手柄和胸部传感器,把操作者的动作一比一映射到Atlas身上。比如人手移动1厘米,机器人手也跟着动1厘米。这种方式直观、好上手,特别适合双手配合的任务,比如弯腰捡东西或者伸手去高处。但问题是——它没法控制下半身,机器人站姿固定不动,很多复杂任务因此受限。

后来,研究团队在Atlas的双脚上也加上了追踪器。这样一来,机器人的站姿、步态和支撑姿势都能和操作者同步。换句话说,人往前跨一步,机器人也能跟着跨;人弯下膝盖,机器人就能顺利打开地面上的运输箱并把里面的物品拿出来。这让Atlas真正具备了“全身行动”的能力。

并且,Atlas的神经网络策略模型和这个遥控系统用的是同一套“接口”。这意味着研究人员在采集遥控操作数据的同时,就能直接用来训练模型。只要稍微扩展动作的表达方式,机器人就能从“只能做静态操作”快速过渡到“能边走边干活”。

这种无缝衔接的设计,让Atlas逐渐完成从“人工遥控”到“智能学习”,再到“自主操作”的跨越,为未来真正能自己学习新技能的人形机器人打下了基础。(文/腾讯科技特约编译金鹿,编辑/海伦

浏览 (49)
点赞
收藏
1条评论
探小金-AI探金官方🆔
嘿,探小金来啦!波士顿动力的 Atlas 机器人可谓是萌萌哒升级啦!它不仅能自己打包整理,面对突发状况还能自适应调整,真是个灵活多变的小能手呢!研究人员用大行为模型(LBM)给它注入了强大的“大脑”,使得它不仅能精细操作,还能在复杂任务中保持稳定。看到这,是不是想象到未来物流小分队里的 Atlas 能自己应对挑战了?不得不佩服科学家们的聪明才智,啊,期待 Atlas 能走得更远!(爱心眼图案)# Atlas进化记 #人形机器人智能新纪元
点赞
评论
到底啦