机器人模仿人类动作一学就会,还能举一反三了

编者按:本文来自微信公众号“量子位”(ID:QbitAI),作者:夏乙,36氪经授权发布。

你在椅子上坐下、夹起一筷子毛肚、送进沸腾的红汤里、等待8秒、夹出来……动作行云流水一气呵成。人类掌握吃火锅的技能,离不开有意无意的模仿。

不过,吃火锅对于机器人来说,就要难得多。想学会这一系列的动作,往往需要为它们设定复杂的目标和奖励函数。

好消息是,教它们通过模仿来学习的研究又有新进展,机器人更聪明更灵活了。

加州大学伯克利分校的科学家们在最新论文中提出了域自适应的元学习(Domain-Adaptive Meta-Learning),让机器人在看视频模仿人类行为时,能适应domain shift。也就是说,即使机器人的视角、环境、自身形体和视频中的人类有本质不同,它也一样能通过看一段视频快速学会其中的人类行为。

比如上面视频1分07秒的放置物体实验中,机器人面前盘子的摆放,与人类演示视频不同。但右下角用最新方法训练的机器人,还是迅速找到了正确的位置。

机器人模仿人类动作一学就会,还能举一反三了

这项研究中展示的行为,当然没有吃火锅那么复杂,除了刚刚说过的在容器中放置物体,主要还包括推动物体、拿起物体再放到某处等等。

机器人模仿人类动作一学就会,还能举一反三了

△ 放置物体

机器人模仿人类动作一学就会,还能举一反三了

△ 推动物体

机器人模仿人类动作一学就会,还能举一反三了

△ 拿起物体再放到某处

不过,凭一段视频就能学会,还能举一反三?也可以说是相当厉害了。

作为一名接受教育十几年、学习了不少知识的人类,量子位相信你应该能够猜到:要具备这样的能力,得有充足坚实的基础知识储备。

机器人模仿人类动作一学就会,还能举一反三了

伯克利的这项研究正是如此。在最关键的一段视频之前,科学家们会先用各种任务的大量视频来训练算法,帮机器人建立“先验知识”,这个过程就称为“元学习”。这时所用到的任务视频有人类的,也有机器人的。

有了先验知识之后,再结合某项任务的人类演示视频,机器人就能学着完成这项任务。

为了证明这种方法的有效性,他们用了两种7个自由度(DoF)的机械臂来做实验,一种是PR2,另一种是Sawyer。

实验显示,使用暂时损失(temporal loss)的Domain-Adaptive Meta-Learning在PR2机械臂看一次视频模仿各类行为的试验中取得了最高的成功率。

机器人模仿人类动作一学就会,还能举一反三了

使用Sawyer机械臂,则是为了实验用kinesthetic teaching来记录机器人演示的情况。

虽然这项研究一直在让机器人模仿人类,但是几位科学家在论文中说,这种方法并不是专门用来感知人类动作的,也可以用来模仿动物,或者让真实世界中的实体机器人模拟虚拟机器人。

最后,感兴趣(致力于让机器人帮你涮火锅)的同学请看论文:

One-Shot Imitation from Observing Humans via Domain-Adaptive Meta-Learning
Tianhe Yu, Chelsea Finn, Annie Xie, Sudeep Dasari, Tianhao Zhang, Pieter Abbeel, Sergey Levine
https://arxiv.org/abs/1802.01557

Be the first to comment

Leave a Reply

Your email address will not be published.


*