华人团队颠覆 CV,SEEM 完美分割一切爆火,一键分割「瞬息全宇宙」

继 SAM 之后,威斯康辛麦迪逊、微软、港科大等机构的研究人员提出 SEEM 模型,通过不同的视觉提示和语言提示,一键分割图像、视频。

Meta 的「分割一切」的横空出世,让许多人惊呼 CV 不存在了。

基于这一模型,众网友纷纷做了进一步工作,比如 Grounded SAM。

将 Stable Diffusion、Whisper、ChatGPT 结合使用,就能做到通过语音让一只狗变成一只猴子。

而现在,不仅仅是语音,你可以通过多模态提示实现一次性分割所有地方的一切。

具体怎么做?

鼠标点一下,直接选中分割内容。

张口一句话。

随手一涂,完整的表情包就来了。

甚至,还能分割视频。

最新研究 SEEM 是由威斯康星大学麦迪逊分校、微软研究院等机构的学者共同完成。

通过 SEEM 使用不同种类的提示,视觉提示(点、标记、框、涂鸦和图像片段)、以及语言提示(文本和音频)轻松分割图像。

论文地址:https://arxiv.org/ pdf / 2304.06718.pdf

这个论文标题有意思的地方在于,与 2022 年上映的一部美国科幻电影「瞬息全宇宙」(Everything Everywhere All at Once)的名字非常相似。

英伟达科学家 Jim Fan 表示,奥斯卡最佳论文标题奖颁给「Segment Everything Everywhere All at Once」

拥有一个统一的、多功能的任务规范界面是扩大大型基础模型规模的关键。多模态提示是未来的方向。

看过论文后,网友表示,CV 现在也要开始拥抱大模型了,研究生未来出路在哪?

奥斯卡最佳标题论文

正是受到基于提示的 LLMs 通用接口发展的启发,研究人员提出了 SEEM。

如图所示,SEEM 模型可以在没有提示的开放集中执行任何分割任务,比如语义分割、实例分割和全景分割。

此外,它还支持任意组合的视觉,文本和引用区域提示,允许多功能和交互式的引用分割。

在模型架构上,SEEM 采用了常见的编码器-解码器架构。其独特的地方在于具有查询和提示之间复杂的交互。

特征和提示被相应的编码器,或采样器编码到一个联合的视觉语义空间。

可学习查询是随机初始化,SEEM 解码器接受可学习查询、图像特征和文本提示作为输入和输出,包括类和掩码嵌入,用于掩码和语义预测。

值得一提的是,SEEM 模型有多轮交互。每一轮都包含一个人工循环和一个模型循环。

在人工循环中,人工接收上一次迭代的掩码输出,并通过视觉提示给出下一轮解码的正反馈。在模型循环中,模型接收并更新未来预测的记忆提示。

通过 SEEM,给一个擎天柱卡车的图,就能分割任何目标图像上的擎天柱。

通过用户输入的文本生成掩模,进行一键分割。

另外,SEEM 通过对引用图像的简单点击,或涂鸦,就能够对目标图像上有相似语义的对象进行分割。

此外,SEEM 非常了解解空间关系。左上行斑马被涂鸦后,也会分割出最左边的斑马。

SEEM 还可以将图像引用到视频掩码,不需要任何视频数据训练,都能完美分割视频。

数据集和设置上,SEEM 在三种数据集接受了训练:全景分割,引用分割和交互式分割。

交互式分割

在交互式分割上,研究者将 SEEM 与最先进的交互式分割模型进行了比较。

作为一个通用模型,SEEM 获得了 RITM,SimpleClick 等相当的性能。而且与 SAM 取得非常相似的性能,SAM 还多用了 50 个分割数据进行训练。

值得注意的是,与现有的交互式模型不同,SEEM 是第一个不仅支持经典的分割任务,而且还支持广泛的多模态输入,包括文本、点、涂鸦、边界框和图像,提供了强大的组合能力。

通用分割

通过对所有分割任务预先训练的一组参数,研究者可以直接评估它在通用分割数据集上的性能。

SEEM 实现了比较好的全景视图,实例和语义分割性能。

研究人员对 SEEM 有四个期望目标:

1. 多功能性:通过引入多功能提示引擎处理不同类型的提示,包括点、框、涂鸦、遮罩、文本和另一图像的引用区域;

2. 复合性:通过学习一个联合视觉-语义空间,为视觉和文本提示组合即时查询进行推理;

3. 交互性:通过整合可学习的记忆提示,通过掩码引导的交叉注意力保留对话历史信息;

4. 语义感知:通过使用文本编码器对文本查询和遮罩标签进行编码,实现开放词汇表的分割。

和 SAM 区别

Meta 提出的 SAM 模型,可以在一个统一框架 prompt encoder 内,指定一个点、一个边界框、一句话,一键分割出物体。

SAM 具有广泛的通用性,即具有了零样本迁移的能力,足以涵盖各种用例,不需要额外训练,就可以开箱即用地用于新的图像领域,无论是水下照片,还是细胞显微镜。

研究者就三个分割任务(边缘检测、开放集和交互式分割)的交互和语义能力对 SEEM 和 SAM 进行了比较。

在开放集分割上,同样需要高水平的语义,并且不需要交互。

与 SAM 相比,SEEM 涵盖了更广泛的交互和语义层次。

SAM 只支持有限的交互类型,比如点和边界框,而忽视了高语义任务,因为它本身不输出语义标签。

对于 SEEM,研究者点出了两个亮点:

首先,SEEM 有一个统一的提示编码器,将所有的视觉和语言提示编码到一个联合表示空间中。因此,SEEM 可以支持更通用的用法,它有可能扩展到自定义提示。

其次,SEEM 在文本掩码和输出语义感知预测方面做得很好。

作者介绍

论文一作 Xueyan Zou

她目前是威斯康星大学麦迪逊分校的计算机科学系博士生,导师是 Yong Jae Lee 教授。

在此之前,Zou 在加州大学戴维斯分校度过了三年时光,由同一位导师指导,并与 Fanyi Xiao 博士密切合作。

她在香港浸会大学获得了学士学位,由 PC Yuen 教授和褚晓文教授指导。

Jianwei Yang

Yang 是 Redmond 微软研究院深度学习组的高级研究员,由高剑峰博士指导。

Yang 的研究主要集中在计算机视觉、视觉与语言和机器学习。他主要研究不同层次的结构化视觉理解,以及如何进一步利用它们通过语言和环境的体现与人类进行智能交互。

在 2020 年 3 月加入微软之前,Yang 在佐治亚理工学互动计算学院获得了计算机科学博士学位,他的导师是 Devi Parikh 教授,他还与 Dhruv Batra 教授密切合作。

高剑峰

高剑峰是微软研究院的杰出科学家和副总裁,IEEE 会员,以及 ACM 杰出会员。

目前,高剑峰领导着深度学习小组。该小组的任务是推动深度学习的最先进技术及其在自然语言和图像理解方面的应用,并在对话模型和方法方面取得进展。

研究主要包括,用于自然语言理解和生成的神经语言模型、神经符号计算、视觉语言的基础和理解、对话式人工智能等等。

2014 年到 2018 年,高剑峰在微软人工智能与研究部和 Redmond 微软研究院的深度学习技术中心(DLTC)担任商业人工智能的合作伙伴研究经理。

2006 年到 2014 年,高剑峰在自然语言处理组担任首席研究员。

Yong Jae Lee

Lee 是华盛顿大学麦迪逊分校计算机科学系的副教授。

他在 2021 年秋季加入华盛顿大学麦迪逊分校之前,曾在 Cruise 担任过一年的人工智能客座教师,在此之前,他在加州大学戴维斯分校担任了 6 年的助理和副教授。

他还曾在卡内基梅隆大学的机器人研究所做了一年的博士后研究员。

他于 2012 年 5 月在德克萨斯大学奥斯汀分校获得博士学位,师从 Kristen Grauman,并于 2006 年 5 月在伊利诺伊大学厄巴纳-香槟分校获得学士学位。

他还曾作为微软研究院的暑期实习生与 Larry Zitnick 和 Michael Cohen 一起工作。

目前,Lee 的研究集中在计算机视觉和机器学习。Lee 对创建强大的视觉识别系统格外感兴趣,该系统可以在最少的人类监督下理解视觉数据。

目前,SEEM 已经开放了演示 demo:

https://huggingface.co/spaces/xdecoder/SEEM

快上手试试吧。

参考资料:

  • https://twitter.com/DrJimFan/status/1649835393163091969

  • https://www.reddit.com/r/MachineLearning/comments/12lf2l3/r_seem_segment_everything_everywhere_all_at_once/

  • https://t.co/U6so7iuxpv

本文来自微信公众号:新智元 (ID:AI_era)

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

文章价值:
人打分
有价值还可以无价值
置顶评论
    热门评论
      文章发布时间太久,仅显示热门评论
      全部评论
      请登录后查看评论
        取消发送
        软媒旗下人气应用

        如点击保存海报无效,请长按图片进行保存分享