澳门银河网游|app下载

  • 机器人专家正在开发自动化的机器人,可以通过观察人类仅仅学习新的任务。在家里,你可能有一天表明国内机器人怎么办日常杂务。

    机器人专家正在开发自动化的机器人,可以通过观察人类仅仅学习新的任务。在家里,你可能有一天表明国内机器人怎么办日常杂务。

    图片:恭达尼洛夫,澳门银河网游app

    全屏

展示机器人如何做你的工作

机器人专家正在开发自动化的机器人,可以通过观察人类仅仅学习新的任务。在家里,你可能有一天表明国内机器人怎么办日常杂务。

通过观察人类,机器人学会执行复杂的任务,比如设置表。 看视频


记者联系

艾比abaz要么ius
电子邮件: abbya@mit.edu
电话:617-253-2709
澳门银河网游app新闻办公室

媒体资源

1张图片下载

媒体访问

媒体只能从本网站的桌面版本下载。

训练机器人互动也许有一天大家一件容易的事,即使是那些没有编程经验。机器人专家正在开发自动化的机器人,可以通过观察人类仅仅学习新的任务。在家里,你可能有一天表明国内机器人怎么办日常杂务。在职场中,你可以训练机器人像新员工,向他们展示如何执行多个任务。

在这一愿景进取,澳门银河网游app的研究人员设计了一个系统,让这些类型的机器人学习复杂的,否则太多的混淆规则阻碍他们的任务。这样的一个任务是在一定条件下设置餐桌。  

其核心,研究人员的‘规划不确定规范’(双关语)系统给机器人像人一样的规划能力,同时权衡许多暧昧 - 和潜在的矛盾 - 要求达到的最终目标。在此过程中,系统总是选择最有可能采取的措施的基础上,“信仰”的一些可能的规格,它应该执行的任务。

在工作中,研究人员编译信息有关如何八个对象数据集 - 一个杯子,玻璃,勺,叉,刀,餐盘,中小板和碗 - 可在各种配置放置在桌面上。机械臂第一观测随机选择与所述对象设置表的人的演示。然后,研究人员任务是在特定的配置自动设置一个表,在现实世界的实验和模拟的基础上,它已经看到了手臂。

要取得成功,机器人不得不权衡许多可能的位置排序,即使项目被故意删除,堆叠,或隐藏。通常情况下,所有这一切会混淆机器人太多。但研究人员的机器人在几个真实世界的实验中没有失误,只有在数以万计的模拟测试运行错误的屈指可数。  

“的愿景是把编程领域专家的手中,谁就能方案,通过直观的方式,而不是描述订单的工程师加入到他们的代码的机器人,”第一作者ANKIT沙阿,研究生在航空部门说航天(AeroAstro公司)和交互机器人组,谁强调,他们的工作只是一步在实现这一愿景。 “这样一来,机器人就不必再进行预编程任务。工厂工人可以教机器人做多复杂的组装任务。家用机器人可以学习如何叠箱,装载洗碗机,还是在家里,从人摆桌子。”

在纸张加盟国王是AeroAstro公司和交互式机器人组研究生沉黎和交互式机器人技术组组长朱莉·沙阿,在AeroAstro公司副教授和计算机科学和人工智能实验室。

机器人对冲赌注

机器人在有明确的“规范”,这有助于描述该任务的机器人需要完成任务的精细策划,考虑到其行动,环境和最终目标。学习通过观察演示设置表,充满不确定的规格。项目必须放置在特定的地点,根据不同的菜单,供客人落座,并在一定的订单,系统会根据项目的即时可用性或社会习俗。规划当前的措施不能够处理这种不确定的规格。

一种流行的方式来规划是“强化学习,”试错的机器学习技术,对行动的奖励和惩罚他们,因为他们的工作来完成任务。但对于不确定的指标任务,这是很难界定明确奖惩制度。总之,机器人从来没有完全明辨是非学习。

研究人员的系统,被称为双关语(与不确定的规格规划),使机器人举行‘信仰’在一定范围内可能的规格。信仰本身可以被用来抛出奖惩制度。 “机器人基本上是两面下注在一个什么样的目的在任务方面,需要满足其信念的行动,我们不是给它一个明确的规范,” ANKIT沙阿说。

该系统是建立在“线性时序逻辑”(LTL),一个表达性语言,它使关于当前和未来的结果机器人推理。研究人员在LTL定义模板,模型中的各种基于时间的条件,比如什么现在必须发生,必须最终会发生,而且必须发生,直到别的东西出现。用于设定表中的30个人的示范机器人的观测得到超过25个不同的LTL公式的概率分布。每个式编码的稍微不同的偏好 - 或规范 - 用于设定表。该概率分布成为其信仰。

“每个公式编码不同的东西,但是当机器人考虑的所有模板的各种组合,并试图满足一切融合在一起,它最终最终做正确的事情,” ANKIT沙阿说。

以下标准

研究人员还开发了几个标准的引导机器人朝满足了那些候选公式整个信念。一个,例如,满足最有可能的公式,丢弃概率最高的模板一切分开。别人满足独特的配方的数量最多,而没有考虑其总体概率,或它们满足几个公式表示最高的总概率。另一个简单的误差最小化,因此,系统将忽略失败的高概率公式。

设计师们可以选择的培训和测试之前预设的四个标准的任何一个。每个人都有灵活性和风险规避之间自己的权衡。标准的选择完全取决于任务。在安全紧急情况,例如,设计人员可以选择限制失败的可能性。但如果失败的后果并不严重,设计师们可以选择让机器人更灵活地尝试不同的办法。

随着地方标准,研究人员开发了一种算法转换成机器人的信念 - 概率分布指向期望公式 - 成等价的强化学习问题。这种模式将ping该机器人的奖励或惩罚它需要一个动作的基础上,它决定跟随规范。

在模拟中,要求机器人设置表中不同的配置,它只做20000次尝试六个错误的。在现实世界中的示范,它显示出与人类将如何执行任务的行为。如果一个项目起初并不显眼,比如,机器人将完成设置表的其余部分没有的项目。然后,被揭露叉时,它会设定在正确的位置叉。 “这就是灵活性是非常重要的,”沙阿ANKIT说。 “否则会被卡住时,预计放置一个叉,而不是完成表格设置的休息。”

接下来,研究人员希望能够修改系统,以帮助机器人改变基于口头指示,更正,或机器人的性能的用户评估自己的行为。 “说一个人演示了机器人如何在只有一个点集的表。这个人可能会说,“做同样的事情对所有其他的斑点,”或者,“把刀子叉子之前,而不是在这里,”” ANKIT沙阿说。 “我们要开发的系统方法能够自然地适应处理这些口头命令,而无需额外的示威游行。”  


话题: 研究, 计算机科学与技术, 算法, 人工智能, 机器学习, 机器人, 机器人, 辅助技术, 航空航天工程, 计算机科学和人工智能实验室(CSAIL), 工程学院

回到顶端