0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

一个全新的文本到视频跨模态检索子任务

深度学习自然语言处理 来源:深度学习自然语言处理 作者:陈先客 2022-10-21 09:32 次阅读

概览

本文介绍一篇ACM MM 2022 Oral的工作。基于传统的跨模态文本-视频检索(Video-to-Text Retrieval, T2VR)任务,该工作提出了一个全新的文本到视频跨模态检索子任务,即部分相关的视频检索(Partially Relevant Video Retrieval, PRVR)。

PRVR任务旨在从大量未剪辑的长视频中检索出与查询文本部分相关的对应视频。若一个未经剪辑的长视频中存在某一片段与给出的查询文本相关,则认为该长视频与给出的查询文本呈部分相关的关系。

而在传统的T2VR任务中,视频都是预剪辑后的短视频,且通常希望检索得到整个视频与文本查询完全相关。相比之下,PRVR任务更加符合实际应用场景,且更具有挑战性。

作者将PRVR任务视为一个多示例学习的问题,将视频同时视为由多个片段以及视频帧所组成的包。若文本与长视频的某帧或者某个片段相关,则视为文本与该长视频相关。基于此,作者设计了多尺度多示例模型,该模型分别对视频进行片段尺度和帧尺度的特征表示,并引入了以关键片段为向导的注意力聚合方法,模型整体以从粗到细的方式学习文本-视频间的相似度关系。该模型除了在PRVR任务上表现较好之外,也可用于提高视频库片段检索(Video Corpus Moment Retrieval,VCMR)模型的性能。

f022be5a-5067-11ed-a3b6-dac502259ad0.png

论文:Partially Relevant Video Retrieval

收录:ACM MM 2022 (Oral Paper)

主页:http://danieljf24.github.io/prvr/

代码:https://github.com/HuiGuanLab/ms-sl

1. 背景与挑战

当前的文本到视频检索(T2VR)方法通常是在面向视频描述生成任务的数据集(如MSVD、MSR-VTT和VATEX)上训练和测试的。这些数据集存在共同的特性,即其包含的视频通常是以较短的持续时间进行预剪辑得到,同时提供的对应文本能充分描述视频内容的要点。因此,在此类数据集中所给出的文本-视频对呈完全相关的关系。

然而在现实的视频检索场景中,由于查询文本是未知的,预先剪辑好的视频可能不包含足够的内容来完全满足查询文本。这表明现阶段在学术研究的T2VR与实际应用存在一定的鸿沟。

如图1所示,上半部分的图取自传统T2VR数据集MSR-VTT,由于视频长度较短,场景单一,所以对应的文本"两个男人在开车的同时进行交谈"能够很好地概括视频的所有内容。而在下半部分取自TV show Retrieval数据集的长视频场景多变,持续时间较长。文本"豪斯使用记号笔在玻璃表面写字"仅能表述视频中的某一片段。在现实世界中的检索场景大多符合后者。

为了弥补这一鸿沟,作者提出了一种新的T2VR子任务——部分相关的视频检索(Partially Relevant Video Retrieval, PRVR)。PRVR任务旨在从大量未剪辑的长视频中检索出与查询文本部分相关的对应视频。若一个未经剪辑的长视频中存在某一片段与给出的查询文本相关,则认为该长视频与给出的查询文本呈部分相关的关系。

f04e7c70-5067-11ed-a3b6-dac502259ad0.png

图1 传统T2VR任务中文本-视频对的相关关系与现实世界的差别

虽然PRVR任务和传统的T2VR任务的目标均为从视频库中检索出查询文本的对应视频,但在PRVR任务中视频通常比较长,同时文本查询对应的片段在原视频中的时长占比分布较广。如图3所示,在TVR和Charades-STA数据集中,时长占比大多分布在50%以下;Activitynet数据集的占比则在1%-100%之间均有分布。

这就代表若简单地将视频表示为单一向量,会大量丢失与查询文本相关的关键信息。同时查询文本在对应长视频的相关时刻起始位置和持续时间都是未知的,需要模型具备在没有时刻标签指导下建模出文本和对应长视频间部分相关关系的能力,所以PRVR任务相较于传统的T2VR任务更具挑战性。

f150f21a-5067-11ed-a3b6-dac502259ad0.png


图3 不同数据集中片段时长占比分布

2. 方法

作者将PRVR定义为多示例学习(Multiple Instance Learning, MIL)问题。

多示例学习是弱标注数据学习的经典框架,并被广泛用于分类任务。在多示例学习中,一个样本被视为由大量示例所组成的包,若包中的某一个或多个示例为正样本时,则该包为正样本;反之则该包为负样本。作者将长视频整体视为一个包,视频中的各帧或由不同大小帧组成的片段则被视为不同示例。若文本与长视频的某帧或者某个片段相关,则视为文本与该长视频相关。

此外,由于不同查询文本与长视频的相关时刻持续时长区别较大,所以作者在多个时间尺度进行视频表示,进一步提出了多尺度相似性学习来度量查询文本和长视频间的部分相关性。

f174ef3a-5067-11ed-a3b6-dac502259ad0.png

图4 模型框架图

2.1 文本特征表示

由于当前模型的重点并不在于文本编码,所以作者使用了一个较为简单且有效的文本编码框架,它也可以被任意当下热门的文本编码框架替代。

具体地,给定一句由个单词所组成的查询文本,使用预训练的RoBERTa模型来提取每个单词的特征向量作为文本的初始特征。之后通过全连接层进行特征降维后,使用一层的标准Transformer模块对其进行进一步编码得到。最终通过注意力模块得到句子级别的特征表示,既:

f1c782b8-5067-11ed-a3b6-dac502259ad0.png


2.2 视频特征表示

对于输入的长视频,首先使用预训练的CNN对其进行特征预提取,作为视频的初始特征向量。进一步地,作者分别从片段尺度和帧尺度分别对视频初始特征向量进行编码。

2.2.1 视频的片段尺度编码

在对视频初始特征向量进行片段尺度编码前,作者将其降采样为长度为的特征,以减少初始特征序列的长度,并有助于降低编码模块的计算复杂度。

之后,将降采样后的特征使用全连接层进行特征降维后,输入到一层的标准Transformer中捕捉其上下文信息:

f1db25c0-5067-11ed-a3b6-dac502259ad0.png


由于上文提到PRVR任务中查询文本在对应长视频的起止时刻是未知的,作者采用滑动窗口的方法生成不同长度的候选视频片段。具体地,作者使用不同尺寸的滑动窗口以步长为1的幅度遍历,在遍历过程中通过对落在滑动窗口内的特征进行平均池化来获得对应大小的视频段特征序列。其形象化过程如上图中片段构造模块所示。通过同时使用大小从的滑动窗口,得到视频段特征序列集合,将其展开后得到最终的视频片段尺度特征序列,。

2.2.2 视频的帧尺度编码

由于视频初始特征向量是独立提取的,因此它们缺乏上下文的时序信息。作者使用Transformer模块捕捉丢失的时序依赖关系。首先简单地对初始特征使用全连接层进行特征降维,并输入到一层标准Transformer,来得到视频的帧尺度特征表示:

f205fee4-5067-11ed-a3b6-dac502259ad0.png


2.4 多尺度相似性学习

由于在PRVR中视频比较长,直接在计算视频文本相似性难度较大。

作者认为如果模型简单地知道与查询文本相关的大致内容,它将有助于模型在更细粒度的范围内准确地找到更相关的内容。

因此作者提出了多尺度相似性学习,以从粗到细的方式计算文本与视频间的相似度。它首先检测视频中最可能与查询文本相关的关键片段,然后在关键片段的指导下衡量每帧的重要性。通过联合考虑查询文本与关键片段和各帧的相似度来计算最终的文本-视频相似度。

2.4.1 片段尺度相似度

在部分相关的检索任务中,若文本与视频中的某一片段相关,则认为文本与该视频相关。

因此作者首先计算视频段特征序列中每个片段与文本特征表示之间的相似度,并将文本与片段最大的相似度作为文本与整个视频的相似度。对于相似度取值,作者认为取平均值会使得相关片段信息被大部分的低相似度片段模糊,所以取最大值作为视频片段尺度相似度。

此外,作者将相似度最高的视频段特征作为关键视频段特征。

f22d6812-5067-11ed-a3b6-dac502259ad0.png


2.4.2 帧尺度相似度

检测到长视频中与文本最相关的关键片段后,作者以关键片段为进一步指导,在细粒度的时间尺度上衡量长视频每帧的重要性。

具体地,作者借鉴了Multi-head Attention的编码方式,将关键片段特征作为query,视频的帧尺度特征序列作为key和value。分别计算出中各特征的权重并对其进行聚合,并计算与文本特征表示的余弦相似度作为视频帧尺度相似度:

f254c3bc-5067-11ed-a3b6-dac502259ad0.pngf2753cfa-5067-11ed-a3b6-dac502259ad0.png


2.5 训练和测试

在模型训练阶段,作者同时使用了三元组损失和对比学习损失进行模型优化。在测试阶段,作者同时使用片段尺度相似度和帧尺度相似度以不同权重共同度量文本和视频间的最终相似度:

f29007ce-5067-11ed-a3b6-dac502259ad0.png


3. 实验结果

3.1整体性能对比实验

由于在上文提到,T2VR任务的传统数据集并不适用与PRVR任务,所以作者使用了被用于单视频定位任务(Single Video Moment Retrieval, SVMR)和视频库定位任务(Video Corpus Moment Retrieval, VCMR)的数据集,分别是TV show Retrieval、Activitynet Captions以及Charades-STA。

在以上三个数据集中,文本仅与视频中的某一片段相关,且视频的相对持续时间更长,符合PRVR任务的检索要求。

此外,作者采用R@1、R@5、R@10、R@100以及Recall Sum等性能指标来衡量模型。同时,由于当前并没有模型是面向PRVR任务的,作者选取了在传统T2VR任务上表现较好的模型作为baseline并在以上三个数据集上进行重新训练,以此进行性能对比。

在所有数据集上,论文提出的模型性能远超各baseline。这表明论文提出的模型相较于传统视频检索模型能够更好地解决PRVR任务。

f2acaa78-5067-11ed-a3b6-dac502259ad0.pngf2e3463c-5067-11ed-a3b6-dac502259ad0.pngf3363e5a-5067-11ed-a3b6-dac502259ad0.png


3.2 分组性能对比实验

由于在上述的性能对比实验中仅反映了模型检索数据集中所有文本-视频对的整体性能,为了在更加细粒度的方面探索各模型对不同相关性的文本-视频对的检索性能,作者定义了片段时长/视频时长比(M/V)这一概念,它以通过查询文本所对应的正确片段持续时间除以整个视频的持续时间来衡量。

M/V越小,表示对应视频与查询文本相关的内容越少,反之则越多。此外, M/V越小,查询文本与其对应视频的相关性越低,而M/V越大,相关性越高。根据M/V的大小,作者将TVR数据集上的10895个测试查询文本分为六组,并报告了在不同分组上的性能。

作者所提出的模型在所有分组中始终表现最好。从左到右观察下图,12个比较模型的平均性能随着M/V的增加而增加。最低M/V组的表现最差,而最高M/V组的表现最好。

这表明,传统的视频检索模型能够更好地应对与相应视频具有更大相关性的查询文本。相比之下,作者所提出的模型在所有M/V组中取得的成绩更为平衡。这一结果表明,作者提出的模型对视频中的无关内容不太敏感。

f3616094-5067-11ed-a3b6-dac502259ad0.png


3.3 消融实验

对于提出的多尺度多示例模型的不同组成部分,作者进行了消融分析。

模型单独使用帧尺度或片段尺度特征表示分支时,性能都不如两分支相结合。同时基于关键片段的注意力机制也能为模型带来较大的性能提升。由于在模型训练阶段同时使用了三元组损失和对比学习损失,作者也对两损失结合使用的有效性进行了论证。

f388ff3c-5067-11ed-a3b6-dac502259ad0.png


3.4 对VCMR模型的性能提升

VCMR任务旨在给定查询文本后,在视频库中检索出对应视频,并且确定查询文本在对应视频中的起止时刻。当前用于VCMR任务的主流模型通常拥有两个阶段的工作流程。第一阶段为从视频库中检索出k个候选视频,第二阶段为从候选视频中检索出准确的起止时刻。

作者选取了当前性能较高的模型,XML和ReLoCLNet,将以上两个模型在TVR数据集上的第一阶段检索结果替换为作者所提出模型的检索结果,从下图可以看出在进行替换后能给上述两模型带来VCMR任务上的性能提升。

f3c18226-5067-11ed-a3b6-dac502259ad0.png


3.5 可视化展示

下图作者给出了一些模型检索过程中的可视化实例,分别给出了查询文本在其对应视频中由模型检测出的关键片段范围与关键片段和所有视频帧之间的相似度曲线。

在前两个查询实例中,模型检测出的关键片段与正确相关片段完全重合。在后两个查询实例中,检测出的关键片段较为不准确,但是正确片段所包含的帧均具有较高的注意力权重。

这表明帧尺度相似度学习分支可以帮助片段尺度相似度学习分支在一定程度上补齐缺失信息,进一步反映了模型设计双分支相似度学习模块的合理性。

f3dbcdb6-5067-11ed-a3b6-dac502259ad0.png


4. 结论

在本文中,针对传统T2VR任务在现实中的局限性,作者提出了一个全新的文本到视频跨模态检索子任务PRVR。在PRVR中,查询文本与对应视频均呈部分相关关系而非传统T2VR任务中的完全相关关系。对于PRVR,作者将其定义为多示例学习问题,并提出多尺度多示例网络,它以从粗到细的方式计算查询文本和长视频在片段尺度和帧尺度上的相似性。在三个数据集上的实验验证了作者所提出的模型对于PRVR任务的有效性,并表明它也可以用于提升VCMR任务模型的性能。





审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • ACM
    ACM
    +关注

    关注

    0

    文章

    32

    浏览量

    10309
  • cnn
    cnn
    +关注

    关注

    3

    文章

    350

    浏览量

    22115

原文标题:ACM MM 2022 Oral | PRVR: 新的文本到视频跨模态检索子任务

文章出处:【微信号:zenRRan,微信公众号:深度学习自然语言处理】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    在TouchGFX中使用Modal时如何更改模态文本

    TouchGFX 使用模态窗口。在Model Window中声明了TextArear,TextArear的内容要根据情况改变。有没有办法只在
    发表于 01-09 06:37

    种针对该文本检索任务的BERT算法方案DR-BERT

    基于MS MARCO数据集,微软提出了两种不同的任务种是给定问题,检索所有数据集中的文档并进行排序,属于文档检索和排序任务;另
    的头像 发表于 08-27 18:05 4032次阅读

    可解决数据异构性问题的模态检索方法

    随着越来越多多模态数据的岀现,模态检索引起了广泛的关注。模态
    发表于 03-26 14:29 10次下载
    可解决数据异构性问题的<b class='flag-5'>跨</b><b class='flag-5'>模态</b><b class='flag-5'>检索</b>方法

    基于异构哈希网络的模态人脸检索方法探究分析

    该文提出种基于异构哈希网络的模态人脸检索方法。异构哈希网络能够将位于不同空间的人脸图像和人脸视频映射到
    发表于 03-31 09:29 18次下载
    基于异构哈希网络的<b class='flag-5'>跨</b><b class='flag-5'>模态</b>人脸<b class='flag-5'>检索</b>方法探究分析

    基于食物图片的食谱检索技术

    饮食记录是饮食管理的关键环节。为了简化记录过程,研究者提出了基于食物图片的食谱检索技术通过拍摄的图片检索对应食谱,并据此生成营养信息,从而提高了记录的便捷性。食谱检索是典型的
    发表于 04-12 10:30 5次下载
    基于食物图片的食谱<b class='flag-5'>检索</b>技术

    基于深度学习的特种车辆模态检索和识别方法

    驾驶混合交通的环境中,实现无人车对正在执行任务的特种车辆进行合理避让显得尤为重要。针对无人驾驶对特种车辆识别的需求,文中构建了模态检索与识别网络( Cross-modal retri
    发表于 04-23 14:56 15次下载
    基于深度学习的特种车辆<b class='flag-5'>跨</b><b class='flag-5'>模态</b><b class='flag-5'>检索</b>和识别方法

    种基于异构哈希网络的模态人脸检索方法

    该文提出种基于异构哈希网络的模态人脸检索方法。异枃哈希网络能够将位于不同空间的人脸图像和人脸视频映射到
    发表于 04-28 16:24 5次下载
    <b class='flag-5'>一</b>种基于异构哈希网络的<b class='flag-5'>跨</b><b class='flag-5'>模态</b>人脸<b class='flag-5'>检索</b>方法

    如何去解决文本图像生成的模态对比损失问题?

    文本图像的自动生成,如何训练模型仅通过文本描述输入就能生成具体的图像,是项非常具有挑战性的任务
    的头像 发表于 06-15 10:07 2680次阅读
    如何去解决<b class='flag-5'>文本</b><b class='flag-5'>到</b>图像生成的<b class='flag-5'>跨</b><b class='flag-5'>模态</b>对比损失问题?

    基于耦合字典学习与图像正则化的模态检索

    基于耦合字典学习与图像正则化的模态检索
    发表于 06-27 11:23 39次下载

    真实闲聊多模态数据集TikTalk

    随着大量预训练语言模型在文本对话任务中的出色表现,以及多模态的发展,在对话中引入多模态信息已经引起了大量学者的关注。
    的头像 发表于 02-09 09:31 1695次阅读

    ImageBind:模态之王,将6种模态全部绑定!

    最近,很多方法学习与文本、音频等对齐的图像特征。这些方法使用单对模态或者最多几种视觉模态。最终嵌入仅限于用于训练的模态对。因此,视频 - 音
    的头像 发表于 05-11 09:30 961次阅读
    ImageBind:<b class='flag-5'>跨</b><b class='flag-5'>模态</b>之王,将6种<b class='flag-5'>模态</b>全部绑定!

    基于实体和动作时空建模的视频文本预训练

    摘要 尽管常见的大规模视频-文本预训练模型已经在很多下游任务取得不错的效果,现有的模型通常将视频或者文本视为
    的头像 发表于 05-25 11:29 706次阅读
    基于实体和动作时空建模的<b class='flag-5'>视频</b><b class='flag-5'>文本</b>预训练

    基于文本图像模型的可控文本视频生成

    文本视频模型需要大量高质量的视频和计算资源,这限制了相关社区进步的研究和应用。为了减少过度的训练要求,我们研究了
    的头像 发表于 06-14 10:39 884次阅读
    基于<b class='flag-5'>文本</b><b class='flag-5'>到</b>图像模型的可控<b class='flag-5'>文本</b><b class='flag-5'>到</b><b class='flag-5'>视频</b>生成

    更强更通用:智源「悟道3.0」Emu多模态大模型开源,在多模态序列中「补全切」

    热度。Flamingo 具备强大的多模态上下文少样本学习能力。 Flamingo 走的技术路线是将大语言模型与预训练视觉编码器结合,并插入可学习的层来捕捉
    的头像 发表于 07-16 20:45 674次阅读
    更强更通用:智源「悟道3.0」Emu多<b class='flag-5'>模态</b>大模型开源,在多<b class='flag-5'>模态</b>序列中「补全<b class='flag-5'>一</b>切」

    UniVL-DR: 多模态稠密向量检索模型

    for Multi-Modal Retrieval 背景介绍 尽管当前主流搜索引擎主要面向文本数据,然而多媒体内容的增长直是互联网上最显着趋势之,各种研究表明用户更喜欢搜索结果中出现生动的多
    的头像 发表于 08-06 22:00 806次阅读
    UniVL-DR: 多<b class='flag-5'>模态</b>稠密向量<b class='flag-5'>检索</b>模型