MIT最新AI研究,让机器人利用触觉感知物体

2019-06-17 16:07猎云网 - 胖虎

麻省理工学院计算机科学及人工智能实验室(CSAIL)的研究人员表示,在不久的将来,机器人将能够通过触觉来感知物体。一篇最新的相关论文将于下周在加利福尼亚长滩市的计算机视觉与模式识别会议上公开,这篇论文描述了一种人工智能系统,它可以通过触觉信号生成触摸物的视觉形象,还能根据视觉数据来预测物体的触感。

“通过观察物体的表面,我们的模型可以预测某个平面或棱角的触感。通过触摸物体,我们的人工智能模型可以根据触感来构建感知到的环境。将这两种感知数据相结合,机器人的性能就会得到优化,它在搬运或抓取某个物体时所需的数据就更少,”CSAIL博士生Yunzhu Li说道,他与他的导师Russ Tedrake、Antonio Torralba以及另一位博士后Jun-Yan Zhu一起撰写了本篇论文。

这支团队的系统采用了生成式对抗神经网络(GAN),这种神经网络包含了生成模型和判别模型,前者负责生成样本,后者负责辨别生成样本和现实样本的不同。该系统能将触觉数据产生的图像拼接起来。训练时它采用了VisGel的数据,该数据库拥有300万组视觉和触觉的配套数据,其中包含1.2万个视频片段,对象多达200种(包括工具、织物和家具产品等)。它会预测出形状和接触点的材料,然后与参考图片进行对比。

例如你给出一只鞋子上某个点的触觉数据,这个模型就能确定出这个接触点到底在什么地方。

这些参考图片能为目标物体或环境的细节进行编码,让机器学习模型不断自我完善。

这些研究人员指出,目前的数据集还非常有限,对于现有的系统而言,物体的颜色、柔软度等细节还很难预测。但很显然他们的研究会为更多的人机一体化打下基础,尤其是针对光线昏暗甚至黑暗密闭空间中的任务。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

文章价值:
人打分
有价值还可以无价值
置顶评论
    热门评论
      全部评论
      一大波评论正在路上
        取消发送
        软媒旗下人气应用

        如点击保存海报无效,请长按图片进行保存分享