研究人员开发出新框架 通过在线演示视频学习来增强和简化机器人算法的训练
盖世汽车讯 要在现实世界中成功部署,机器人需具备完成从家务到工业流程等各种日常任务的能力,其中包括操作织物,例如折叠衣服放进衣柜,或者帮助行动不便的老年人在社交活动前系好领带。
迄今为止,要开发出能够高效完成这些任务的机器人相当具有挑战性。许多用于训练机器人完成织物操作任务的方法都依赖于模仿学习,这是一种利用人类完成相关任务的视频、动作捕捉片段和其它数据来训练机器人控制的技术。
虽然其中一些技术取得了不错的结果,但要想更进一步,它们通常需要大量的人类演示数据。这些数据可能昂贵且难以收集,而现有的开源数据集的数据并不总是像用于训练其它计算技术(如计算机视觉或生成性人工智能模型)的数据一样多。
据外媒报道,新加坡国立大学(National University of Singapore)、上海交通大学(Shanghai Jiao Tong University)和南京大学(Nanjing University)的研究人员最近开发出新方法,可以通过人类演示来增强和简化机器人算法的训练。研究人员在arXiv平台预发表的一篇论文中概述了这一方法,即让机器人利用每天发布在互联网上的海量视频作为日常任务的人类演示。

图片来源:arXiv
该论文的共同作者Weikun Peng表示:“这项研究始于一个简单的想法,即建立一个系统,让机器人能够利用互联网上海量的人类演示视频来学习复杂的操作技能。换句话说,给定一个任意的人类演示视频后,我们希望机器人完成视频中显示的相同任务。”
虽然此前的研究也引入了利用视频片段的模仿学习技术,但它们使用的是特定领域的视频(即人类完成特定任务,随后机器人在相同环境中完成任务),而不是在任意环境或设置中收集的视频。
相比之下,Peng及其同事开发的框架则可使机器人能够从网上的任意演示视频中进行模仿学习。该团队的新框架有3个主要组成部分,分别称为Real2Sim、Learn@Sim以及Sim2Real,其中Real2Sim是该框架的核心及最重要的部分。
Peng解释道:“Real2Sim负责跟踪演示视频中物体的运动,并在仿真中的网格模型上复制相同的运动。换句话说,我们试图在仿真中复制人类的演示。最后,我们得到一连串的物体网格,代表物体的真实运动轨迹。”
研究人员的方法利用网格(即物体几何、形状和动力学的精确数字表示)作为中间表示。Real2Sim组件在仿真环境中复制人类演示后,该框架的第二个组件Learn@Sim能够学习抓取点和放置点,使机器人能够通过强化学习执行相同的动作。
Peng表示:“在仿真中学习抓取点和放置点后,我们将该策略部署到真实的双臂机器人上,这是我们框架的第三步(即Sim2Real)。我们制定了一项残差策略,以缩小Sim2Real的差距。”
研究人员在一系列测试中评估了所提出的方法,特别是领带打结的任务。虽然这项任务对机器人来说可能非常困难,但该团队的方法却让机器人机械手能够成功完成这项任务。
Peng表示:“值得注意的是,此前许多研究都需要‘域内’演示视频,这意味着演示视频的设置应该与机器人执行环境的设置相同。与之相对,我们的方法则可以使机器人从‘域外’演示视频中学习,因为我们从演示视频中提取了物体在3D空间中的运动。”
未来,Peng及其同事提出的新方法可以应用于其它复杂且具有挑战性的机器人操纵任务。最终,它可以通过模仿学习来促进机器人的训练,从而有可能提升机器人的技能。
Peng补充道:“我未来的工作计划是将Real-Sim-Real的想法扩展到其它任务中。如果我们能在仿真中复制物体的运动,那我们能在仿真中复制现实世界吗?机器人界正面临着数据稀缺的问题,在我看来,如果我们能够在仿真中复制现实世界,就可以更有效地收集数据,并将学习到的策略更好地转移到真实的机器人身上。”
欢欢@盖世汽车供应链
悠悠@盖世汽车
豆豆@盖世汽车






