您现在的位置是:首页 > 资讯 > 正文
DeepMind的研究人员已经开发出有效教授机器人诸如抓握等任务的方法
发布时间:2023-02-17 00:00:43来源:
在上周发表在Arxiv.org预印服务器上的一篇论文中,DeepMind科学家引入了SimpleSensorIntention(SSI)的概念,这是一种用于减少在强化学习中定义奖励(描述AI的功能)所需的知识的方法和系统。他们声称,仅使用原始传感器数据,SSI就可以帮助解决一系列复杂的机器人任务,如抓取、举起球并将其放入杯中。
在机器人领域训练AI通常需要人类专家和先验信息。AI必须根据当前的整体任务进行调整,这需要定义一个表示成功并促进有意义探索的奖励。从表面上看,SSI提供了一种鼓励经销商探索其环境的通用方法,并提供了收集数据以解决重大任务的指南。如果将其商业化或部署在仓库机器人等生产系统中,SSI可以减少对手动微调和计算密集型状态估计(即基于输入和输出测量的系统状态估计)的需求。
正如研究人员所解释的,在没有奖励信号的情况下,人工智能系统可以通过影响机器人传感器(如触摸传感器、关节角度传感器和位置传感器)的学习策略形成探索策略。这些政策探索环境,寻找富有成效的领域,使他们能够收集重大学习任务的质量数据。具体而言,SSI是通过获得传感器响应并根据以下两种方案之一计算奖励来定义的辅助任务集:(1)奖励实现特定目标响应的代理,或(2)奖励经历特定变化的代理。回应。
在实验中,本文的合著者将一个装有摄像头的机器人的原始图像(重新思考索耶)转换为少量的SSI。他们总结了图像空间中颜色分布的统计数据,并从场景中物体的颜色估计值中定义了颜色范围和相应的传感器值。他们总共使用了六个基于机器人触摸传感器的SSI,以及两个围绕着装有色块的篮子的摄像头。只有当两个摄像头的颜色分布平均值向所需方向移动时,控制机器人的AI系统才能获得最高的奖励。
研究人员报告称,经过9000次培训(6天),人工智能成功学会了清除障碍。即使在将单一颜色通道的SSI替换为在多个颜色通道上总结奖励的SSI之后,AI也设法从原始传感器信息中提取“各种”不同的对象。在另一个环境下训练了4000集(3天),他学会了玩杯子和球。
在未来的工作中,合著者打算集中精力扩展SSI,以自动生成奖励和奖励组合。他们写道:“我们认为,我们的方法比广泛使用的塑造奖励公式需要更少的先验知识,塑造奖励公式通常取决于任务洞察力的定义和计算的状态估计。”“SSI的定义非常简单,域之间没有或者只有很少的适应性。”
标签:
猜你喜欢
最新文章
- 联想服务器官网首页
- dell官网商城
- 联想驱动下载
- 苹果电脑适合什么人用
- 谷歌Pixel6line可以同时使用面部和指纹解锁
- 笔记本散热性能排行榜
- Zimmer Biomet 首次推出 WalkAI™ 人工智能模型以预测术后恢复进度
- 三星Galaxy A33和Galaxy A73智能手机获得了Bixby Routines功能
- 戴尔笔记本电脑哪款好
- Netflix已确认广告何时到达平台
- 5000预算买什么游戏笔记本
- 联想电脑型号图片大全
- EA 和 DICE 推出了战地 2042更新 1.2
- 一体机电脑好还是台式电脑好
- 笔记本电脑标志logo大全
- 联想笔记本商务哪款好
- 戴尔电脑回收官网
- 电脑报价网站
- 戴尔全国售后服务网点
- 联想zuk官网
- thinkpad t450
- 移动硬盘无法读取怎么修复
- 惠普打印机维修上门
- 计算机配置清单及价格