0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

简要回顾视频理解方面的近年进展,并对未来可能的研究方向作一展望

DPVg_AI_era 来源:未知 作者:李倩 2018-05-29 18:19 次阅读

相比图像,视频多了一维时序信息。如何利用好视频中的时序信息是研究这类方法的关键。视频理解可以用于多个领域,例如在智能安防领域中可以取代人工来对监控视频进行分析。本文简要回顾视频理解方面的近年进展,并对未来可能的研究方向作一展望。

常用数据集

视频分类主要有两种数据集,剪辑过(trimmed)的视频和未经剪辑的视频。剪辑的视频中包含一段明确的动作,时间较短标记唯一,而未剪辑的视频还包含了很多无用信息。如果直接对未剪辑的视频进行处理是未来的一大研究方向。

HMDB-51:6,766视频,51类。剪辑的视频,每个视频不超过10秒。内容包括人面部、肢体、和物体交互的动作等。

UCF-101:13,320视频,101类,共27小时。剪辑的视频,每个视频不超过10秒。内容包含化妆刷牙、爬行、理发、弹奏乐器、体育运动等。

Charades:9.848视频(7,985训练,1,863测试),157类。未剪辑的视频,每个视频大约30秒。每个视频有多个标记,以及每个动作的开始和结束时间。

Sports-1M:1,100,000视频(70%训练、20%验证、10%测试),487类,内容包含各种体育运动。

ActivityNet (v1.3):19,994视频(10,024训练,4,926验证,5,044测试),200类,共700小时。内容包括饮食、运动、家庭活动等。

Kinetics:246k训练视频,20k验证视频,400类。

G. A. Sigurdsson, et al. What actions are needed for understanding human actions in videos? ICCV'17.

相比图像分类,视频的类别/动作数目要少很多,而且常常有一定歧义,例如take和put要和后面名词结合才会有具体含义(如take medication, take shoes, take off shoes)。Sigurdsson等人发现人类对这些动词也容易感到混淆。另外,视频中动作开始和结束的时间也不够明确。

经典方法

H. Wang, et al. Dense trajectories and motion boundary descriptors for action recognition. IJCV'13.

H. Wang and C. Schmid. Action recognition with improved trajectories. ICCV'13.

Wang等人提出DT和iDT方法。DT利用光流得到视频中的运动轨迹,再沿着轨迹提取特征。iDT对相机运动进行了补偿,同时由于人的运动比较显著,iDT用额外的检测器检测人,以去除人对相邻帧之间投影矩阵估计的影响。这是深度学习方法成熟之前效果最好的经典方法,该方法的弊端是特征维度高(特征比原始视频还要大)、速度慢。实践中,早期的深度学习方法在和iDT结合之后仍能取得一定的效果提升,现在深度学习方法的性能已较iDT有大幅提升,因此iDT渐渐淡出视线。

o4YBAFsNKZaAQKH6AACITJy5nhg411.jpg

逐帧处理融合

这类方法把视频看作一系列图像的集合,每帧图像单独提取特征,再融合它们的深度特征。

A. Karpathy, et al. Large-scale video classification with convolutional neural networks. CVPR'14.

Karpathy等人把视频划分成很多固定长度的片段(clip),并设计了多种融合方法。

Single frame. 逐帧单独前馈网络

Late fusion. 两帧相距15帧的图像分别前馈网络,并融合它们的深度卷积特征。

Early fusion. 连续10帧图像前馈网络,因此网络第一层的卷积核由11×11×3变为11×11×3×10。Early fusion的思路最早由Le等人提出。

Le, et al. Learning hierarchical invariant spatio-temporal features for action recognition with independent subspace analysis. CVPR'11.

Slow fusion. 即使用3D卷积。连续10帧图像前馈网络,第一层卷积核时间方向大小为4,第二、三层卷积核时间方向大小为2。

o4YBAFsNKZeANhjtAACS6cDlgI4403.jpg

此外,为了加速训练,由于目标通常位于图像中心,Karpathy等人使用了一个两分支网络:一个分支输入空间大小下采样减半的图像,另一个分支输入原图中心裁剪后的图像。这样,总体的输入图像维数只有原图的一半。这两个分支的深度卷积特征拼接(concatenate)起来给全连接层进行分类。

实验发现,3D卷积的融合效果最好,而不考虑运动信息的single frame策略已经是十分强的baseline。Early fusion策略效果最差的原因可能是直接从输入图像上捕获运动信息难度太大。

J. Y.-H. Ng, et al. Beyond short snippets: Deep networks for video classification. CVPR'15.

Ng等人先提取每一帧的深度卷积特征,再设计特征融合方法得到最终输出。其中,紫色代表沿时间方向进行最大汇合(max-pooling),黄色代表全连接层,绿色代表3*3*10,stride 5的3D卷积,红色代表softmax输出。相比Karpathy等人,Ng等人的输入视频片段的长度更长(每秒采样1帧,一个片段由120帧构成),包含了更多的时序信息。实践中发现(a)的效果最好。

o4YBAFsNKZeAcGfQAAD4lvlP16w279.jpg

B. Fernando and S. Gould. Learning end-to-end video classification with rank-pooling. ICML'16.

在得到每帧图像的深度卷积特征vt之后,Fernando和Gould通过解如下的优化问题来对特征进行排序汇合(rank-pooling)。其动机是靠前的帧o4YBAFsNKZeAUjGoAAACk-zgdw8455.png要小一些,而靠后的帧大一些。

o4YBAFsNKZeAdLdlAAArq66lQH4378.jpg

o4YBAFsNKZeACgaVAADEzAPu5eY980.jpg

X.-S. Wei, et al. Deep bimodal regression of apparent personality traits from short video sequences. TAC'17.

由于相邻帧信息冗余度很高,Wei等人从视频(450帧)中采样100帧,每帧交由DAN分别进行预测。在得到relu5-2/pool5深度特征之后,DAN将其全局最大/平均汇合以得到深度特征。

o4YBAFsNKZiAPMOwAABdyO0K-pg367.jpg

A. Kar, et al. AdaScan: Adaptive scan pooling in deep convolutional neural networks for human action recognition in videos. CVPR'17.

由于不同帧的重要性不同,Kar等人提出AdaScan汇合方法。其逐帧提取特征,之后判断不同帧的重要程度,并据此进行特征汇合。

o4YBAFsNKZiADylqAAFp7ZJvgo0303.jpg

M. Zolfaghari, et al. ECO: Efficient Convolutional network for Online video understanding. arXiv:1804.09066.

Zolfaghari等人提出ECO。由于相邻帧有信息冗余,ECO从视频中采样若干帧,每帧单独用2D卷积提取特征,之后沿时间方向拼接特征,再用3D卷积捕获它们的时序关系。ECO和state-of-the-art方法性能相似,但速度上快了10-80倍。在测试时,为了捕获长距离依赖,输入视频片段由已看过的和未看过的视频中采样得到。

o4YBAFsNKZiAEBsnAACs1tYJQZM912.jpg

o4YBAFsNKZiAbErTAAB4U2FKNuQ351.jpg

ConvLSTM

这类方法是用CNN提取每帧图像的特征,之后用LSTM挖掘它们之间的时序关系。

J. Y.-H. Ng, et al. Beyond short snippets: Deep networks for video classification. CVPR'15.

J. Donahue, et al. Long-term recurrent convolutional networks for visual recognition and description. CVPR'15.

Ng等人在深度特征上,用5层隐层结点数512的LSTM来提取深度特征,每个时刻都进行输出。训练时,一个片段从第1帧到最后一帧输出层获得的梯度分别乘以0.0-1.0的权重,用以强调后面帧的重要性。测试时,计算这些帧输出的加权和。Donahue等人也提出了类似的工作。此外,Ng等人和Donahue等人还利用了光流输入。把x、y两个方向的光流缩放到[0, 255]作为光流图像前两个通道,把光流的大小作为第三个通道。

o4YBAFsNKZmAOYniAAEc7OOiZk4183.jpg

W. Du, et al. RPAN: An end-to-end recurrent pose-attention network for action recognition in videos. ICCV'17.

Du等人利用人体姿态估计辅助动作识别。

o4YBAFsNKZmAUbcbAADSyESLuJc732.jpg

3D卷积

把视频划分成很多固定长度的片段(clip),相比2D卷积,3D卷积可以提取连续帧之间的运动信息。

o4YBAFsNKZmARgJJAADBNr9MFYE140.jpg

在视频动作识别中最早提出3D卷积的是

M. Baccouche, et al. Sequential deep learning for human action recognition. HBU Workshop'11.

S. Ji, et al. 3D convolutional neural networks for human action recognition. TPAMI'13.

Baccouche等人使用第一层卷积核时间方向大小为5。Ji等人使用第一、二层卷积核时间方向大小为3,第三层卷积时由于时间维度大小很小,所以采用2D卷积。

此外,为使网络获得更多先验信息,Ji等人使用了两个技巧:(1). 同时使用原始图像、图像梯度、和相邻帧光流作为输入。(2). 让网络额外地学习运动信息接近手工运动特征。

D. Tran, et al. Learning spatio-temporal features with 3D convolutional networks. ICCV'15.

Tran等人提出C3D,其将3×3卷积扩展到3×3×3卷积,2×2汇合扩展到2×2×2汇合。输入片段16帧。实验中发现,时域方向卷积核大小为3效果最好。相比2D CNN,3D CNN的参数量很大,训练变得更困难,且需要更多的训练数据。相比其他类型的方法,C3D一次处理多帧,所以计算效率很高。

o4YBAFsNKZmAK8cTAABQB6GXYN0179.jpg

L. Sun, et al. Human action recognition using factorized spatio-temporal convolutional networks. ICCV'15.

Sun等人把3D卷积分解为空间方向2D卷积和时间方向1D卷积。

o4YBAFsNKZqAF1E5AADKZSfavmY756.jpg

J. Carreira and A. Zisserman. Quo vadis, action recognition? A new model and the Kinetics dataset. CVPR'17.

Carreira和Zisserman提出I3D,把two-stream结构中的2D卷积扩展为3D卷积。由于时间维度不能缩减过快,前两个汇合层的卷积核大小是1×2×2,最后的汇合层的卷积核大小是2*7*7。和之前文章不同的是,two-tream的两个分支是单独训练的,测试时融合它们的预测结果。

o4YBAFsNKZqAPA7SAAB7IdBt1fU383.jpg

Z. Qiu, et al. Learning spatio-temporal representation with pseudo-3D residual networks. ICCV'17.

Qiu等人提出P3D,用一个1×3×3的空间方向卷积和一个3×1×1的时间方向卷积近似原3×3×3卷积。通过组合三种不同的模块结构,进而得到P3D ResNet。P3D ResNet在参数数量、运行速度等方面对C3D作出了优化。

o4YBAFsNKZqATnqGAABRPKVZ-V8286.jpg

o4YBAFsNKZqAMS6TAAAuZZSnZss541.jpg

D. Tran, et al. A closer look at spatio-temporal convolutions for action recognition. CVPR'18.

Tran等人提出ResNet (2+1)D,把一个3D卷积分解成为一个2D卷积空间卷积和一个1D时间卷积,注意这里的参数量和原3D卷积相同。相比P3D有三种形式,(2+1)D和P3D-A最接近。

o4YBAFsNKZqAMcepAAEIV4QP1fE316.jpg

C. Lea, et al. Temporal convolutional networks for action segmentation and detection. CVPR'17.

受WaveNet启发,Lea等人提出一个编码-解码网络,并使用空洞卷积和短路连接,以捕获长距离依赖。实验中发现,这种结构效果优于RNN。

o4YBAFsNKZuAMlncAADVttg4HG4324.jpg

L. Wang, et al. Appearance-and-relation networks for video classfication. CVPR'18.

Wang等人希望利用3D卷积显式地学习类似two-stream的结构。Wang等人通过不同帧之间的乘性关系度量不同帧之间的关系。

o4YBAFsNKZuAJIPpAAB6-48S_Ek550.jpg

K. Hara, et al. Can spatio-temporal 3D CNNs retrace the history of 2D CNNs and ImageNet? CVPR'18.

Hara等人尝试了多种3D网络结构。

X. Wang, et al. Non-local neural networks. CVPR'18.

可以看作是3D卷积的一个扩展。3D卷积的感受野是有限区域,而non-local旨在解决长距离依赖问题。Non-local的响应是所有空间和时间位置特征的加权平均

o4YBAFsNKZuAYB-RAAAaZo-ix4g248.png

其中,o4YBAFsNKZuAAwEjAAAEomkm9S0656.png用于度量相似性,o4YBAFsNKZuAOiDKAAAD-IVqZWY647.png计算响应,o4YBAFsNKZyAN7dkAAADdSlfH6Q215.png用于归一化。当o4YBAFsNKZyAZJpcAAALif0TOPE971.png时,non-local操作退化为全连接层;当o4YBAFsNKZyAO1sCAAAGrAECZLg998.jpg时,non-local操作o4YBAFsNKZyAI2bVAAANtetdf2s043.png退化为self-attention。实验中发现non-local block加在底层比加在高层效果要好,加多个non-local blocks会有效果提升但不是很明显。

o4YBAFsNKZyAe-90AADj_a2PphA299.jpg

这类方法的弊端是只能考虑比较短的时间片段的运动信息,参数量?

Two-stream

K. Simonyan and A. Zisserman. Two-stream convolutional networks for action recognition in videos. NIPS'14.

o4YBAFsNKZ2AdheWAACVJWfMPS8258.jpg

采用两个分支。一个分支输入单帧图像,用于提取图像信息,即在做图像分类。另一个分支输入连续10帧的光流(optical flow)运动场,用于提取帧之间的运动信息。由于一个视频片段中的光流可能会沿某个特别方向位移的支配,所以在训练时光流减去所有光流向量的平均值。两个分支网络结构相同,分别用softmax进行预测,最后用直接平均或SVM两种方式融合两分支结果。

此外,为了加速训练,Simonyan和Zisserman预先计算出光流并保存到硬盘中。为了减小存储大小,他们将光流缩放到[0, 255]后用JPEG压缩,这会使UCF101的光流数据大小由1.5TB减小到27GB。

L. Wang, et al. Action recognition with trajectory-pooled deep-convolutional descriptors. CVPR'15.

Wang等人结合了经典iDT手工特征和two-stream深度特征,提出TDD。经典手工特征计算时通常分两步:检测图像中显著和有信息量的区域,并在运动显著的区域提取特征。TDD将预训练的two-stream网络当作固定的特征提取器。得到两者特征之后,TDD使用时空规范化以保证每个通道的数值范围近似一致,使用通道规范化以保证每个时空位置的描述向量的数值范围近似一致,之后用trajectory pooling并用Fisher向量构建TDD特征,最后用SVM分类。

o4YBAFsNKZ2AHfvbAADGEAFzu-8518.jpg

C. Feichtenhofer, et al. Convolutional two-stream network fusion for video action recognition. CVPR'16.

Feichtenhofer等人研究如何融合两分支的深度卷积特征。他们发现级联两个特征到2D维再用1×1卷积到D维的融合方法效果最好,之后再经过3D卷积和3D汇合后输出。

o4YBAFsNKZ2ASzmfAACXPkYTtwk114.jpg

C. Feichtenhofer, et al. Spatio-temporal residual networks for video action recognition. NIPS'16.

Feichtenhofer将ResNet作为two-stream的基础网络架构,用预训练网络的权重初始化新的3D网络:w(d, t, i, j)=w(d, i, j)/T。此外,有从光流分支到图像分支的信息传递。此外,网络输入不是连续的,而是步长5到15帧。

o4YBAFsNKZ2AAuaZAACe9yAxaEU807.jpg

L. Wang, et al. Temporal segment networks: Towards good practices for deep action recognition. ECCV'16.

由于相邻的帧信息冗余度很高,对视频密采样是不必要的。Wang等人提出TSN结构,其对视频进行稀疏采样,在避免冗余信息的同时可以处理长距离依赖。TSN把输入视频分成K段,每段随机选择一个视频片段(snippet),之后用two-stream结构提取特征再融合。TSN取得了ActivityNet 2016年竞赛的冠军。

此外,除RGB和光流图像输入外,TSN还尝试了RGB difference和warped光流两种输入,最终发现RGB+光流+扭曲(warped)光流的效果最好。

o4YBAFsNKZ6AeXcWAADQ_vBEME0708.jpg

Z. Lan, et al. Deep local video feature for action recognition. CVPR'17.

由于不是视频中每帧都包含有用信息,Lan等人首先用TSN提取局部特征,之后再进行聚合

o4YBAFsNKZ6ADiffAAChyNkxZr0436.jpg

R. Girdhar, et al. ActionVLAD: Learning spatio-temporal aggregation for action recognition. CVPR'17.

类似于NetVLAD,Girdhar等人用two-stream提取特征,之后用VLAD得到视频的表示。实验中发现,图像和光流两个分支单独处理效果最好。

o4YBAFsNKZ6AR1rVAACGeSIazE0360.jpg

C. Feichtenhofer, et al. Spatio-temporal multiplier networks for video action recognition. CVPR'17.

Feichtenhofer等人发现,two-stream网络在外观分支容易过拟合。Feichtenhofer等人加入了两个分支之间的信息交互,并发现乘性的信息交互效果最好。

o4YBAFsNKZ6AbuHBAAB7HX-ik5A642.jpg

G. A. Sigurdsson, et al. Asynchronous temporal fields for action recognition. CVPR'17.

Sigurdsson等人利用全连接时序CRF对视频的时序关系进行推断。

o4YBAFsNKZ6AS0WNAACZbZ1keQw422.jpg

W. Zhu, et al. A key volume mining deep framework for action recognition. CVPR'16.

一段视频中并非所有的帧都对识别任务同等重要,如果把它们同等看待,有价值的帧信息会淹没在其他无关的帧中。借助多示例学习思路,Zhu等人交替优化关键帧挖掘和分类两个目标。网络输入N个视频片段,输出每个片段对应每个类别的分数。如果该类别对应真实标记,采用随机汇合,否则是maxout汇合,其中响应最强的视频片段即为得到的关键帧。

o4YBAFsNKZ-APfWdAACpPajH96A129.jpg

Y. Wang, et al. Spatio-temporal pyramid network for video action recognition. CVPR'16.

Wang等人利用双线性汇合融合两个分支的特征。

o4YBAFsNKZ-AOdQZAACBNvigGtY032.jpg

A. Diba, et al. Deep temporal linear encoding networks. CVPR'17.

Diba等人对不同帧/片段的深度卷积特征逐元素相乘,再通过精简双线性汇合得到最终的特征表示。

o4YBAFsNKZ-AbbnFAAEPTiFky5Q590.jpg

R. Girdhar and D. Ramanan. Attentional pooling for action recognition. NIPS'17.

将双线性汇合用于TSN的图像分支。在得到深度卷积特征o4YBAFsNKZ-AXj10AAAF266wcA8768.png之后,经典双线性汇合会计算输入属于第k个类的分数o4YBAFsNKZ-ACm0EAAAOn0909N0215.png。Girdhar和Ramanan对参数矩阵o4YBAFsNKaCAA2nFAAACpMHlOiA442.png做了一个秩-1近似

o4YBAFsNKaCAI2UtAAAZumeJ3qk455.png

实验中, Girdhar和Ramanan将224大小的HMDB-51缩放到450大小,以确保最后的深度卷积特征大小不会太小(14×14)。当特征大小太小时,效果不显著。另一方面,Girdhar和Ramanan只用了图像分支来处理视频,总体性能和state-of-the-art还有很大差距。

o4YBAFsNKaCAPhzjAACQGmmTcec180.jpg

I. C. Duta, et al. Spatio-temporal vector of locally max-pooled features for action recognition in videos. CVPR'17.

Duta等人研究如何聚合不同特征。

o4YBAFsNKaCAL7YNAAC4x4GmGzc528.jpg

P. Weinzaepfel, et al. DeepFlow: Large displacement optical flow with deep matching. ICCV'13.

Dosovitskiy, et al. FlowNet: Learning optical flow with convolutional networks. ICCV'15.

E. Ilg, et al. FlowNet 2.0: Evolution of optical flow estimation with deep networks. CVPR'17.

由于经典光流算法很慢,因此有工作致力于使用深度神经网络计算光流。DeepFlow在不同粒度上进行聚合和匹配,FlowNet基于类似于视觉跟踪的思路使用互相关滤波综合两张图的深度特征最终生成光流。由于标记数据不足,FlowNet使用人工合成Chairs数据集进行训练。FlowNet 2.0的贡献有三点。(1). 发现如何进行训练对结果影响至关重要,先在简单的Chairs数据集上训练、再在更真实的Things3D上训练会比混合两个数据集一起训练效果更好。(2). 多个子网络堆叠,并用中间光流结果对图像进行扭曲输入中间子网络。(3). 有一个子网络专注于微小运动。

其他视频理解任务

时序动作定位(temporal action localization)在一段未剪辑的视频中找到动作开始和结束的时间,并对动作进行分类。

Z. Shou, et al. Temporal action localization in untrimmed videos via multi-stage CNNs. CVPR'16.

Shou等人提出SCNN,用不同大小的滑动窗产生视频片段,之后用3D候选区域网络判断该视频片段是前景/背景,用3D分类网络判断K+1个类别的分数(包括背景),最后用定位网络判断开始/结束时间。后处理使用非最大抑制(NMS)。

o4YBAFsNKaGARfylAADbAE0xgYc658.jpg

J. Gao, et al. TURN TAP: Temporal unit regression network for temporal action proposals. ICCV'17.

思路类似于Faster R-CNN。

o4YBAFsNKaGAWfoSAABxfkKC6YE256.jpg

H. Xu, et al. R-C3D: Region convolutional 3D network for temporal activity detection. ICCV'17.

以C3D网络为基础,借鉴Faster R-CNN,对输入视频片段先提取特征,再生成提取候选时序,最后RoI汇合后进行检测。

o4YBAFsNKaGAfA23AABsO1L8dAk745.jpg

Z. Shou, et al. CDC: Convolutional-de-convolutional networks for precise temporal action localization in untrimmed videos. CVPR'17.

类似于语义分割问题的思路,为了得到对应于每一帧的分类预测分数,Shou等人在3D卷积层之后提出CDC卷积,在空间方向用卷积进行下采样,在时间方向上用转置卷积进行上采样。

o4YBAFsNKaGAJm7XAACGuQMo0ok325.jpg

L. Wang, et al. UntrimmedNets for weakly supervised action recognition and detection. CVPR'17.

分类模块用于对每个视频片段进行分类,而选择模块用于给出不同视频片段的重要性。选择模块的实现包括hard selection和soft selection。训练时端到端联合优化。

o4YBAFsNKaGARhIcAADIRwkB4Vg692.jpg

Y. Zhao, et al. Temporal action detection with structured segment networks. ICCV'17.

Zhao等人提出SSN,讲视频分为三个部分,最终构成全局特征。分类时有动作性分类器和完整性分类器。

o4YBAFsNKaKAYxdHAADZViswssM001.jpg

异常检测(anomaly detection)通常用于判断监控视频中出现的异常事件。

W. Sultani, et al. Real-world anomaly detection in surveillance videos. CVPR'18.

由于训练时只知道一段视频中有/没有异常,而异常事件的种类和发生时刻未知,Sultani等人利用多示例学习,将异常检测问题转化为一个回归排序问题,让异常样本的排序值高于普通样本,训练时让正负样本之间的距离尽可能远。

o4YBAFsNKaKAIeRPAACrNV5d2e0058.jpg

视频摘要与视频浓缩(video summarization and video synopsis)视频摘要是从原始视频中提取有代表性的关键帧,而视频浓缩将多帧视频合并成一帧。

M. Gygli, et al. Creating summaries from user videos. ECCV'14.

X. Li, et al. Surveillance video synopsis via scaling down objects. TIP'16.

“看视频说话”(video captioning)基本思路和看图说话一致,用编码网络提取视频信息,用解码网络生成文字描述。

S. Venugopalan, et al. Sequence to Sequence–Video to Text. ICCV'15.

o4YBAFsNKaKARubHAAEcOan-Ylw773.jpg

第一视角视频(first-person video)研究第一视角视频可以用于自动驾驶机器人导航等。

T. Yagi, et al. Future person localization in first-person videos. CVPR'18.

Yagi等人提出行人位置预测任务,即根据行人历史信息,预测下一帧行人的位置。Yagi等人用1D时域卷积来融合不同帧的特征。

o4YBAFsNKaKAYLnmAACbfQDeJTI037.jpg

视频生成(next frame generation)有工作利用生成式模型对视频进行生成。

M. Mathieu, et al. Deep multi-scale video prediction beyond mean square error. ICLR'16.

C. Vondrick, et al. Generating videos with scene dynamics. NIPS'16.

目标跟踪(object tracking)给定视频第一帧中目标的位置(以包围盒的形式),我们需要预测其他帧中该目标的包围盒。目标跟踪类似于目标检测,但目标跟踪的难点在于事先不知道要跟踪的目标具体是什么,因此无法事先收集足够的训练数据以训练一个专门的检测器。一种研究思路是利用孪生网络,一支输入第一帧包围盒内图像,另一支输入其他帧的候选图像区域,通过互相关操作(卷积),得到二维的响应图,其中最大响应位置确定了需要预测的包围盒位置。

L. Bertinetto, et al. Fully-convolutional siamese networks for object tracking. ECCV'16 Workshop.

M. Danelljan, et al. ECO: Efficient Convolution Operators for tracking. CVPR'17.

E. Valmadre, et al. End-to-end representation learning for correlation filter based tracking. CVPR'17.

o4YBAFsNKaOAWfrdAACUajQZ_kM640.jpg

可能的未来方向

利用多示例学习进行视频分析。未剪辑视频中有很多无关内容,并非视频中所有的帧都对应于该视频标记,这符号多示例学习的设定。虽然Zhu等人在CVPR'16和Kar等人在CVPR'17的工作中对这方面已有一些探索,但仍有后续精进的空间。

精度与效率。Two-stream和3D卷积的方法相比,大致来说前者的效果更好,但前者需要逐帧图像前馈网络,而后者一次可以处理多帧,因此前者效率不如后者,尤其是预先计算并保存光流是一个很繁重的负担。如何能同时利用两者的优点是未来一个可能的研究方向,Feichtenhofer等人在CVPR'16已有初步的工作。LSTM能捕获的长距离依赖程度有限,并且更难训练,速度也更慢,因此ConvLSTM的方法在视频分析中用的不多。

资源受限下的视频分析。相比图像数据,处理视频数据需要更大的计算和存储资源。现实应用中很多是资源受限的,如何在这种场景下进行视频分析是一大挑战。将视频解压为能输入网络的一帧帧图像也需要不小的资源开销,Wu等人在CVPR'18提出直接利用原始视频输入,并利用视频压缩编码中的运动信息。

更大、更通用数据集。哪种方法更好和用什么数据集(解决什么任务)有很大关系。如果视频本身就比较静止,或者单帧图像已经包含了足够的信息,那么用逐帧单独处理的策略已经可以取得很好的结果。

视频=图像+音频。视频是一种多模态的数据形式,能否利用音频信息辅助视频分析呢。Aytar等人在NIPS'16的工作中利用图像辅助音频分析。

Y. Aytar, et al. SoundNet: Learning sound representations from unlabeled video. NIPS'16.

最后列出一些相关的综述文章。其中Tran等人实验研究了不同采样步长、不同输入大小、不同网络配置等对性能的影响。

Z. Wu, et al. Deep learning for video classification and captioning. arXiv: 1609.06782.

D. Tran, et al. ConvNet architecture search for spatio-temporal feature learning. arXiv: 1708:05038.

M. Asadi-Aghbolaghi, et al. A survey on deep learning based approaches for action and gesture recognition in image sequences. FG'17.

S. Herath, et al. Going deeper into action recognition: A survey. IVC'17.

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 视频
    +关注

    关注

    6

    文章

    1929

    浏览量

    72764
  • 图像
    +关注

    关注

    2

    文章

    1078

    浏览量

    40370
  • 深度学习
    +关注

    关注

    73

    文章

    5459

    浏览量

    120863

原文标题:【干货】计算机视觉视频理解领域的经典方法和最新成果

文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    深度学习在自然语言处理方面的研究进展

    要是关注深度学习在自然语言处理方面的研究进展,我相信你定听说过Attention Model(后文有时会简
    的头像 发表于 07-19 09:20 7492次阅读
    深度学习在自然语言处理<b class='flag-5'>方面的</b><b class='flag-5'>研究进展</b>

    新型铜互连方法—电化学机械抛光技术研究进展

    。主要综述了电化学机械抛光技术的产生、原理、研究进展展望,对铜的ECMP 技术进行了回顾和讨论。关键词:化学机械抛光;铜互连;低介电常数;电化学机械抛光;平坦化技术;多孔
    发表于 10-06 10:08

    风光互补技术原理及最新进展

    风光互补技术原理及最新进展摘要: 简要回顾国内外风电、光伏技术与应用发展态势,结合风光互补系统应用, 分析、介绍了风光互补LED路灯照明系统、智能控制器设计、分布式供电电源、风光互补水泵系统,着重
    发表于 10-26 13:45

    室内颗粒物的来源、健康效应及分布运动研究进展

    室内颗粒物的来源、健康效应及分布运动研究进展摘要:室内的颗粒物质与室内空气1~(indoor air quality,IAQ)有着密切关系。颗粒物质可能给人体健康或者其他设备和物品带来危害。该文回顾
    发表于 03-18 22:22

    薄膜锂电池的研究进展

    的最佳选择。简单介绍了薄膜锂电池的构造,举例说明了薄膜锂电池的工作原理。从阴极膜、固体电解质膜、阳极膜三个方面概述了近年来薄膜锂电池关键材料的研究进展。阴极膜方面LICOO2依旧是
    发表于 03-11 15:44

    请大家帮忙推荐研究生论文课题方向,fpga方面的

    请大家帮忙推荐研究生论文课题方向,fpga方面的?谢谢高手了!
    发表于 09-16 21:12

    光互连技术的研究进展

    成为个光束,自动在两个器件之间建立个藕合光路。该技术的优点是可以在不同形状的器件间进行模式尺寸的转换,降低制造费用特别是对轴方向的光学互连,且用叩进行模拟显示,具有高的藕合效率和
    发表于 01-29 09:19

    未来语音接口的展望

    ,如情境对话和情感检测。在我之前的专栏中,我回顾了当前流行的语音接口的缺点和缺失功能。但是这些纠结情况正频临消除。在本文中,我将展望未来的语音接口和能够推动它们的技术。能够相互通信的Always-Listening始终倾听机器
    发表于 07-16 06:10

    宽频轻质吸波涂料有哪些研究未来有哪些应用展望

    、纳米吸波材料和智能隐身材料等新型宽频轻质吸波涂料的最新研究状况,对雷达隐身材料应用技术的未来做了展望。关键词:宽频轻质吸波涂料;空心微珠吸波涂料;碳纳米管吸波涂料;导电高聚物吸波涂
    发表于 07-30 07:28

    人脸识别常用方法研究

    计算机自动人脸识别技术是生物识别的个重要分支。本文简要回顾了人脸自动识别技术的研究背景及发展历程,重点对近年来人脸自动识别方法的研究进展
    发表于 09-14 14:17 13次下载

    人脸识别研究的新进展及趋势

    简要回顾了人脸识别技术的研究背景及发展历程袁总结了近三四年人脸识别方法的研究进展袁根据三维人脸重构方法的数据来源不同袁将其分为基于静态图像和视频序列的三维重
    发表于 11-09 16:37 23次下载

    使用光流进行运动图像分析的研究进展说明

    基于光流的运动图像分析是解决目标跟踪、视频压缩等许多机器视觉问题的关键技术之。从光流场的含义和求解思路入手,对运动图像分析问题和现有研究工作进行了较为全面的描述和分析,最后
    发表于 10-21 17:41 7次下载
    使用光流进行运动图像分析的<b class='flag-5'>研究进展</b>说明

    电线电缆在电磁兼容方面的研究方向

    从电磁兼容技术的根本任务和研究方向出发,进行归纳整理了电线电缆在电磁兼容方面的研究方向,包括不同屏蔽形式,传输模型,电线电缆接地及试验等。
    发表于 09-22 15:20 1748次阅读
    电线电缆在电磁兼容<b class='flag-5'>方面的</b><b class='flag-5'>研究</b><b class='flag-5'>方向</b>

    导热硅凝胶的研究与应用进展

    介绍了导热硅凝胶的组成和特点,分别阐述了导热硅凝胶在导热机制、渗油性、密着力性能等方面的研究进展。综述了导热硅凝胶在航空电子设备、5G电子设备、动力电池等方面的应用,最后对其发展方向
    的头像 发表于 04-07 09:55 1228次阅读
    导热硅凝胶的<b class='flag-5'>研究</b>与应用<b class='flag-5'>进展</b>

    量子计算关键技术研究进展

    量子计算具备可能超越经典计算的潜在能力,近年来在技术研究、应用探索及产业生态培育等方面取得诸多进展,整体发展进入快车道,已成为全球多国科研布
    的头像 发表于 08-08 11:32 1542次阅读
    量子计算关键技术<b class='flag-5'>研究进展</b>