CLIP当RNN用入选CVPR:无需训练即可分割无数概念|牛津&谷歌

  K 君投稿

  量子位公众号 QbitAI

  循环调用 CLIP,无需额外训练就有效分割无数概念。

  包括电影动漫人物,地标,品牌,和普通类别在内的任意短语。

  牛津大学与谷歌研究院联合团队的这项新成果,已被CVPR 2024接收,并开源了代码。

  团队提出名为CLIP as RNN(简称 CaR)的新技术,解决了开放词汇量图像分割领域中的几个关键问题:

  1. 无需训练数据:传统方法需要大量的掩膜注释或图像-文本数据集进行微调,CaR 技术则无需任何额外的训练数据即可工作。
  2. 开放词汇量的限制:预训练的视觉-语言模型(VLMs)在经过微调后,其处理开放词汇量的能力受到限制。CaR 技术保留了 VLMs 的广泛词汇空间。
  3. 对非图像中概念的文本查询处理:在没有微调的情况下,VLMs 难以对图像中不存在的概念进行准确分割,CaR 通过迭代过程逐步优化,提高了分割质量。

  受 RNN 启发,循环调用 CLIP

  要理解 CaR 的原理,需要先回顾一下循环神经网络 RNN。

  RNN 引入了隐状态(hidden state)的概念,就像是一个”记忆体”,存储了过去时间步的信息。而且每个时间步共享同一组权重,可以很好地建模序列数据。

  受 RNN 启发,CaR 也设计成循环的框架,由两部分组成:

  • 掩膜提议生成器:借助 CLIP 为每个文本查询生成一个 mask。
  • 掩膜分类器:再用一个 CLIP 模型,评估生成的每个 mask 和对应的文本查询的匹配度。如果匹配度低,就把那个文本查询剔除掉。

  就这样反复迭代下去,文本查询会越来越精准,mask 的质量也会越来越高

  最后当查询集合不再变化,就可以输出最终的分割结果了。

  之所以要设计这个递归框架,是为了最大限度地保留 CLIP 预训练的”知识”

  CLIP 预训练中见过的概念可是海量,涵盖了从名人、地标到动漫角色等方方面面。如果在分割数据集上微调,词汇量势必会大幅缩水。

  例如“分割一切”SAM 模型就只能认出一瓶可口可乐,百事可乐是一瓶也不认了。

  但是直接拿 CLIP 做分割,效果又不尽如人意。

  这是因为 CLIP 的预训练目标本来就不是为密集预测设计的。尤其是当图像中不存在某些文本查询时,CLIP 很容易生成一些错误的 mask。

  CaR 巧妙地通过 RNN 式的迭代来解决这个问题。通过反复评估、筛选查询,同时完善 mask,最终实现了高质量的开放词汇分割。

  最后再来跟随团队的解读,了解一下 CaR 框架的细节。

  CaR 技术细节

  1. 循环神经网络框架:CaR 采用了一个新颖的循环框架,通过迭代过程不断优化文本查询与图像之间的对应关系。
  2. 两阶段分割器:由掩膜提议生成器和掩膜分类器组成,均基于预训练的 CLIP 模型构建,且权重在迭代过程中保持不变。
  3. 掩膜提议生成:使用 gradCAM 技术,基于图像和文本特征的相似度得分来生成掩膜提议。
  4. 视觉提示:应用如红圈、背景模糊等视觉提示,以增强模型对图像特定区域的关注。
  5. 阈值函数:通过设置相似度阈值,筛选出与文本查询对齐程度高的掩膜提议。
  6. 后处理:使用密集条件随机场(CRF)和可选的 SAM 模型进行掩膜细化。

  通过这些技术手段,CaR 技术在多个标准数据集上实现了显著的性能提升,超越了传统的零样本学习方法,并在与进行了大量数据微调的模型相比时也展现出了竞争力。如下表所示,尽管完全无需额外训练及微调,CaR 在零样本语义分割的 8 个不同指标上表现出比之前在额外数据上进行微调过的方法更强的性能。

  作者还测试了 CaR 在零样本 Refering segmentation 的效果,CaR 也表现出了相较之前零样本的方法表现出更强的性能。

  综上所述,CaR(CLIP as RNN)是一种创新的循环神经网络框架,能够在无需额外训练数据的情况下,有效地进行零样本语义和指代图像分割任务。它通过保留预训练视觉-语言模型的广泛词汇空间,并利用迭代过程不断优化文本查询与掩膜提议的对齐度,显著提升了分割质量。

  CaR 的优势在于其无需微调、处理复杂文本查询的能力和对视频领域的扩展性,为开放词汇量图像分割领域带来了突破性进展。

  论文链接:

  https://arxiv.org/abs/2312.07661

  项目主页:

  https://torrvision.com/clip_as_rnn/