0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

介绍一个基于CLIP的zero-shot实例分割方法

jf_pmFSk4VX 来源:GiantPandaCV 作者:Garfield 2022-10-13 09:13 次阅读

2. 介绍

CLIP是近年来在多模态方面的经典之作,得益于大量的数据和算力对模型进行预训练,模型的Zero-shot性能非常可观,甚至可以在众多数据集上和有监督训练媲美。简单来说,CLIP的high-level的idea非常直接,就是通过对比学习,对图像特征空间和文本特征空间进行对齐,给定任意图像和文本都可以映射到这个空间中,然后这些图像和文本就可以直接计算相似度。通过这种方式,CLIP填平了文本和视觉信息的gap。

CLIP是基于分类任务完成的,那么相应的,我们就不免思考其在检测和分割领域能否也发挥比较好的效果。如何不依赖于手工标注的分割标注,如何能真真的做到去用文本来作为监督信号来指导模型训练,就是非常值得思考的一个问题。下面我们就来介绍一个基于CLIP的zero-shot实例分割方法。

4ada392e-4a8f-11ed-a3b6-dac502259ad0.png


对于传统做分割的模型的一种方法就是通过像素相似度进行语义分割。

首先在图上找一些中心点,然后通过像素相似然后将附近像素给到不同的目标区域,最终获得segmentation mask区域。如上图所示,为了实现摆脱手工标注这一目标,论文提出将分割中经典的group机制引入到深度网络中,通过这种机制,语义的信息段可以在只需要文本监督的情景下自动出现。

通过对具有对比损失的大规模成对vision-language数据进行训练,我们可以将模型zero-shot转移到多个语义分割到word table中,而不需要进一步的注释或微调。

总结论文的贡献如下:

在深度网络中,我们超越了规则形状的图像网格,引入了一种新的Group ViT体系结构,将视觉概念分层自下而上地分组为不规则形状的组。

在不依赖任何像素级的标注情况下,只采用图像级文本监督,成功地学会了将图像区域分组,并以zero-shot的模式迁移到多个语义分割词汇表。

本文是第一份在不使用任何像素标签的情况下探索从文本监督到多个语义分割任务的零镜头转移的工作,并为这一新任务建立了坚实的基线。

3. 方法

4b227b3a-4a8f-11ed-a3b6-dac502259ad0.png


如上图所示,本文提出的结构在ViT基础上进行设计,是一个dual-encoder的结构。训练过程主要分为三部:

第一步:把原始的image作为输入,利用ViT结构的encoder进行图像编码。将图像分成若干个patch之后,将每个patch作为path embedding的向量信息,构建出 部分的数据矩阵,然后利用线性层映射出一个embedding的数据。然后将图像中的不同patch得到的embedding进行分类,构建出64*384大小的group token矩阵块。

这里有两种实现的方式,第一种,对于2-stage类型的GroupViT,

在GroupViT的第一阶段,经过Transformer layers操作后可以得到64个group tokens,然后在6层Transformer层后插入grouping block。

在GroupViT的第二阶段,grouping之后,都会得到8个segment tokens。对于1-stage类型的GroupViT,就非常简单直接了,在grouping block之前,将64个group tokens通过MLP-Mixer layer映射成8个segment tokens。

然后Grouping Block将学到的group tokens 和image segment tokens作为输入,通过Grouping Block更新image tokens,利用这些tokens将相似的images归并到一起。每经过一个grouping stage,能够得到更大更少的image segments。

4b4f4444-4a8f-11ed-a3b6-dac502259ad0.png

第二步:基于上一步输出的8384的group token后把文本数据和得到的数据联合进行训练。为了和Text信息进行关联,能够机选Clip的内积,需要把8维映射为1维,为了方便简单,论文直接用avg pooling处理;

论文的训练loss有两项,包括image-text loss和multi-label contrastive loss with text prompting。

image-text loss包括image to text和text to image两项:

4b7e3e2a-4a8f-11ed-a3b6-dac502259ad0.png4baff9a6-4a8f-11ed-a3b6-dac502259ad0.png

multi-label contrastive loss with text prompting涉及到较为复杂的操作,可以参考原文进一步了解:

4bc7ad12-4a8f-11ed-a3b6-dac502259ad0.png


第三步:通过设计好的GroupViT结构,模型能够自动将image分组成一个个的segment,所以可以很容易的zero-shot transfer到语义分割任务上,而不需要微调。由于GroupViT自动将图像分组为语义相似的片段,它的输出可以很容易地转移到语义分割,而无需进一步的微调。如图4所示。

为了推断图像的片段属于对象类的有限词汇table,论文通过Group VIT来传递一个测试图像,而不对其最终的L输出段应用AvgPool,并得到每个片段的嵌入为。每个段标记对应于输入图像的任意形状的区域。然后,我们计算每个段标记的嵌入与数据集中所有语义类的文本嵌入之间的相似性。

我们将每个图像片段分配给图像文本embedding相似度最高的语义类定为最终分割结果。

4. 实验结果

4bea5c7c-4a8f-11ed-a3b6-dac502259ad0.png

在无监督的情况下,自然是相较于其他的对比学习方式有了比较明显的提升,但显然和有监督的setting表现还是有一定的gap的(如VOC可以达到80%+),由此可见,无监督的语义分割还是有一定进步的空间的。

4c1b2a50-4a8f-11ed-a3b6-dac502259ad0.png


为了将CLIP zero-shot转换为语义分割,在推理过程中首先对其输出特征进行non-parametric的分组。然后计算每组的特征均值与数据集分割标签的文本embeddings之间的相似度。这样,任何结合CLIP的ViT非参数分组方法都可以被认为是一个零镜头的语义分割基线。如表4所示,分组ViT的性能大大优于其他分组方法。这表明,与使用CLIP训练的ViT相比,我们的GroupViT在zero-shot转换到语义分割方面更有效。

5. 结论

本文迈出了学习零样本语义分割的第一步,也是重要一步,在只有文本,没有任何明确的人类标注的监督下进行自监督。我们证明,使用GroupViT,从大规模噪声图像-文本对中学习到的表示可以以零镜头的方式转移到语义分割。这项工作也证明了除了图像分类之外,文本监督也可以转移到更细粒度的视觉任务中,这是以前没有探索过的,开辟了一个非常有趣的研究方向。




审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 图像编码
    +关注

    关注

    0

    文章

    26

    浏览量

    8305
  • Clip
    +关注

    关注

    0

    文章

    31

    浏览量

    6649

原文标题:CVPR 2022: GroupViT 基于文本监督的语义分割算法

文章出处:【微信号:GiantPandaCV,微信公众号:GiantPandaCV】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    基于将 CLIP 用于下游few-shot图像分类的方案

    对比性图像语言预训练模型(CLIP)在近期展现出了强大的视觉领域迁移能力,可以在全新的下游数据集上进行 zero-shot 图像识别。
    的头像 发表于 09-27 09:46 5022次阅读

    图像分割的基本方法解析

    本文详细介绍了图像分割的基本方法有:基于边缘的图像分割方法、阈值分割
    发表于 12-20 11:06 10.9w次阅读
    图像<b class='flag-5'>分割</b>的基本<b class='flag-5'>方法</b>解析

    在机器学习中如何进行基本翻译

    Statsbot数据科学家Daniil Korbut简明扼要地介绍了用于机器学习翻译的基本原理:RNN、LSTM、BRNN、Seq2Seq、Zero-Shot、BLEU。
    的头像 发表于 12-22 11:38 5701次阅读
    在机器学习中如何进行基本翻译

    Facebook AI使用单神经网络架构来同时完成实例分割和语义分割

    新架构“全景 FPN ”在 Facebook 2017 年发布的 Mask R-CNN 的基础上添加了用于语义分割的分支。这新架构
    的头像 发表于 04-22 11:46 2858次阅读
    Facebook AI使用单<b class='flag-5'>一</b>神经网络架构来同时完成<b class='flag-5'>实例</b><b class='flag-5'>分割</b>和语义<b class='flag-5'>分割</b>

    很小的Pascal VOC数据集上训练实例分割模型

    的应用,如自动驾驶汽车或医疗诊断。在这些任务中,我们依靠机器的能力来识别物体。 我们经常看到的与目标识别相关的任务有4:分类和定位、目标检测、语义分割实例分割。 在分类和定位中,我
    的头像 发表于 12-26 11:26 6013次阅读

    Zero-shot-CoT是multi-task的方法

    大规模预训练语言模型借助于针对特定任务设计的prompt(无论是few shot还是zero shot),在单步骤的system-1任务上有着出色表现,但是对于那些缓慢和需要多步推理的system-2任务表现不佳。
    的头像 发表于 06-15 10:53 2366次阅读

    从预训练语言模型看MLM预测任务

    的prompt情感分类实践以及基于zero-shot的promptNER实体识别实践五方面,进行代码介绍,供大家起思考。
    的头像 发表于 11-14 14:56 3096次阅读

    基于GLM-6B对话模型的实体属性抽取项目实现解析

    Zero-shot、One-shot以及Few-shot让人傻傻分不清,读了很多文章,也没搞清楚他们的差别,究竟什么叫zero-shot,其在应用过程中的no gradient upd
    的头像 发表于 03-28 10:11 6837次阅读

    迈向多模态AGI之开放世界目标检测

    OVD的基础概念:OVD的使用主要涉及到 few-shotzero-shot两大类场景,few-shot是指有少量人工标注训练样本的目标类别,zero-shot则是指不存在任何人
    的头像 发表于 06-15 16:08 722次阅读
    迈向多模态AGI之开放世界目标检测

    基于通用的模型PADing解决三大分割任务

    数据需要消耗巨大的时间以及人力成本。为处理上述难题,零样本学习(Zero-Shot Learning,ZSL)被提出用于分类没有训练样本的新对象,并扩展到分割任务中,例如零样本语义分割Zer
    的头像 发表于 06-26 10:39 515次阅读
    基于通用的模型PADing解决三大<b class='flag-5'>分割</b>任务

    CVPR 2023 | 华科&amp;MSRA新作:基于CLIP的轻量级开放词汇语义分割架构

    Adapter Network (SAN)的新框架,用于基于预训练的视觉语言模型进行开放式语义分割。该方法将语义分割任务建模为区域识别问题,并通过附加
    的头像 发表于 07-10 10:05 1022次阅读
    CVPR 2023 | 华科&amp;MSRA新作:基于<b class='flag-5'>CLIP</b>的轻量级开放词汇语义<b class='flag-5'>分割</b>架构

    APE:对CLIP进行特征提纯能够提升Few-shot性能

    CLIP通用的模型,考虑到下游数据分布的差异,对某个下游任务来说,CLIP提取的特征并不全是有用的,可能包含部分冗余或噪声。因此,在
    的头像 发表于 07-19 14:19 1639次阅读
    APE:对<b class='flag-5'>CLIP</b>进行特征提纯能够提升Few-<b class='flag-5'>shot</b>性能

    在英特尔开发套件上用OpenVIN实现中文图文检索

    embedding,根据特征相似度匹配可完成图像分类和相似查找任务。CLIP 模型的 zero-shot 分类效果就能达到在 Imagenet 上监督训练的 ResNet 分类效果,且有更好的泛化和抽象能力。
    的头像 发表于 10-27 11:06 777次阅读
    在英特尔开发套件上用OpenVIN实现中文图文检索

    基于AX650N+CLIP的以文搜图展示

    能否有种“识别万物”的图像识别大模型呢?今天就借此机会,通过实操来重温下由OpenAI在2021年初发布的Zero-Shot视觉分类模型CLIP,并移植到爱芯派Pro上实现简单的以图搜文示例。
    的头像 发表于 11-01 16:44 1367次阅读
    基于AX650N+<b class='flag-5'>CLIP</b>的以文搜图展示

    基于显式证据推理的few-shot关系抽取CoT

    最近,上下文学习策略已被证明在没有训练的情况下显示出显著的结果。很少有研究利用上下文学习进行zero-shot信息提取。不幸的是,推理的证据在思维链提示的构建过程中没有被考虑或隐式建模。
    的头像 发表于 11-20 17:44 820次阅读
    基于显式证据推理的few-<b class='flag-5'>shot</b>关系抽取CoT