0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

英伟达团队使用深度学习,能将任意视频变为“高清慢速播放”模式

DPVg_AI_era 来源:lq 2018-12-29 09:25 次阅读

英伟达团队CVPR-18论文Super SloMo使用深度学习,能将任意视频变为“高清慢速播放”模式,从此不再错过任何细节。今天有人开源了PyTorch实现,赶紧来试试吧!

总有那么一些细节,你瞪大双眼拼了命想看清却依然奈不了何,比如下面这个:

跟得上球吗?要看清男子羽毛球比赛的细节实在不容易

有时候想盯住飞来飞去的羽毛球,非常吃力,这就是人类肉眼的极限。

你或许会说,好解决啊,用慢速回放功能就行了。

确实可以回放,但慢速回放的前提,是摄像机一开始就捕捉到了这些细节。如今,一些大型体育赛事已经用上了工业高速摄像头,为的就是在裁判的裁决引发争议时,可以用慢镜头回放来判定结果。

但是,没有专业的高速摄像头怎么办?

像我们用智能手机拍的视频,记录下生活中很多美好,随风飘逝的晚霞,又或者池塘溅起的涟漪,还有孩子们在泳池里泼水嬉戏,如果都能够放慢了观看,必将带来全新的感受。

正因如此,当今年计算机视觉顶会CVPR举行时,英伟达团队的一篇能让手机拍摄的视频也“高清慢速播放”的论文,在业界引发了很大的反响。

这项被称为Super SloMo的工作,使用深度神经网络,对视频中缺失的帧进行预测并补全,从而生成连续慢速回放的效果。

更赞的是,他们提出的方法,能够排除原视频帧当中被遮挡的像素,从而避免在生成的内插中间帧里产生模糊的伪像(artifact)。

值得一提,这篇论文的第一作者,是本硕毕业于西安交通大学、现在马萨诸塞大学阿默斯特分校读博四的Huaizu Jiang。第二作者Deqing Sun是英伟达学习与感知研究小组的高级研究员,本科毕业于哈工大,硕士读的港中文,在布朗大学取得博士学位后,在哈佛Hanspeter Pfister教授的视觉研究小组做过博士后。

感受一下Super-SloMo生成的“慢速回放”效果:

注意,左右两边都是Super SloMo生成的视频。左边是原始慢速视频,右边是将这个结果再放慢4倍的效果,如果不告诉你中间的细节(帧)是神经网络生成的,你会不会把它们当做真的慢速回放?来源:Huaizu Jiang个人主页

实际用手机拍摄的画面是这样的,对比后,意识到Super SloMo补充多少细节了吗?

论文作者称,他们能将30FPS(画面每秒帧数)的视频变为480FPS,也即每秒帧数增加了16倍。

根据Super SloMo项目主页,作者表示,使用他们未经优化的PyTorch代码,在单个NVIDIA GTX 1080Ti 和 Tesla V100 GPU上,生成7个分辨率为1280*720的中间帧,分别只需要0.97秒和0.79秒。(补充说明:从标准序列30-fps生成240-fps视频,一般需要在两个连续帧内插入7个中间帧。)

效果当然称得上惊艳。然而,令很多人失望的是,论文发布时并没有将代码和数据集公开,尽管作者表示可以联系 Huaizu Jiang 获取部分原始资料

仅在论文中提到的数据和示例。来源:Super SloMo论文

今天,有人在 Github 上开源了他对 Super-SloMo 的 PyTorch 实现。这位ID为atplwl的Reddit用户,在作者提供的adobe24fps数据集上预训练的模型(下图中pretrained mine),实现了与论文描述相差无几的结果。

o4YBAFwmzh-AGS4vAABiFvhcsog188.png

现在,这个预训练模型,还有相关的代码、数据集,以及实现条件,都能在GitHub上查到。

自称新手的atplwl表示,他目前在努力完善这个GitHub库,接下来预计添加一个PyThon脚本,将视频转换为更高的fps视频,欢迎大家提供建议。

Super SloMo PyTorch实现地址(点击阅读原文访问):https://github.com/avinashpaliwal/Super-SloMo

Super SloMo:将任意视频变为“高清慢速播放”

代码在手,再看论文——前文已经说过,从已有视频中生成高清慢速视频是一件非常有意义的事情。

除了专业的高速摄像机尚未普及到每个人手里,人们用手机拍摄的视频 (一般为240FPS) 想要放慢的时刻是不可预测的,要实现这一点就不得不用标准帧速率来记录所有视频,但这样做需要的内存过大,对移动设备来说耗电量也花不起。

现在,计算机视觉领域,除了将标准视频转换为更高的帧速率之外,还可以使用视频插值来生成平滑的视图转换。在自监督学习中,这也可以作为监控信号来学习未标记视频的光流。

不过,生成多个中间视频帧 (intermediate video frame) 是具有挑战性的,因为帧必须在空间和时间上是连贯的。例如,从30-fps标准序列生成240-fps视频,需要在两个连续帧内插入7个中间帧。

成功的解决方案不仅要正确解释两个输入图像之间的运动(隐式或显式),还要理解遮挡 (occlusion)。 否则,就可能导致插值帧中产生严重的伪像,尤其是在运动边界附近。

现有方法主要集中于单帧视频插值,而且已经取得了不错的进展。然而,这些方法不能直接用于生成任意高帧率视频。

虽然递归地应用单帧视频插值方法生成多个中间帧是一个很不错的想法,但这种方法至少有两个限制:

首先,递归单帧插值不能完全并行化,速度较慢,因为有些帧是在其他帧完成后才进行计算的(例如,在七帧插值中,帧2取决于0和4,而帧4取决于0和8)。

其次,它只能生成2i-1个中间帧。因此,不能使用这种方法有效生地生成1008 - fps 24帧的视频,这需要生成41中间帧。

论文Super SloMo: High Quality Estimation of Multiple Intermediate Frames for Video Interpolation提出了一种高质量的变长多帧插值方法,该方法可以在两帧之间的任意时间步长进行插值。

其主要思想是,将输入的两幅图像扭曲到特定的时间步长,然后自适应地融合这两幅扭曲图像,生成中间图像,其中的运动解释和遮挡推理在单个端到端可训练网络中建模。

Super SloMo效果展示:注意在放慢过渡区域对伪像的处理。

具体来说,首先使用流量计算CNN来估计两幅输入图像之间的双向光流,然后线性融合来近似所需的中间光流,从而使输入图像发生扭曲。这种近似方法适用于光滑区域,但不适用于运动边界。

因此,Super SloMo 论文作者使用另一个流量插值CNN来细化流近似并预测软可见性图。

通过在融合之前将可见性图应用于变形图像,排除了被遮挡像素对内插中间帧的贡献,从而减少了伪像。

Super SloMo网络架构

“我们的流计算和插值网络的参数都独立于被插值的具体时间步长,是流插值网络的输入。因此,我们的方法可以并行生成任意多的中间帧。”作者在论文中写道。

为了训练该网络,团队从YouTube和手持摄像机收集了240-fps的视频。总量有1.1K视频剪辑,由300K个独立视频帧组成,典型分辨率为1080×720。

然后,团队在其他几个需要不同插值数量的独立数据集上评估了训练模型,包括Middlebury 、 UCF101 、慢流(slowflow)数据集和高帧率(high-frame-rate) MPI Sintel。

实验结果表明,该方法明显优于所有数据集上的现有方法。 团队还在KITTI 2012光流基准上评估了无监督(自监督)光流结果,并获得了比现有最近方法更好的结果。

Super SloMo项目主页:https://people.cs.umass.edu/~hzjiang/projects/superslomo/

Super SloMo PyTorch实现Github地址:

https://github.com/avinashpaliwal/Super-SloMo

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4765

    浏览量

    100573
  • 深度学习
    +关注

    关注

    73

    文章

    5493

    浏览量

    121007
  • pytorch
    +关注

    关注

    2

    文章

    803

    浏览量

    13153

原文标题:干掉高速摄像头!神经网络生成极慢视频,突破人类肉眼极限(PyTorch实现)

文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    英伟与软银携手共建日本AI基础设施

    近日,英伟创始人兼CEO黄仁勋宣布,英伟将与软银集团合作,在日本共同建设AI基础设施,其中包括日本最大的AI工厂。这一合作标志着英伟
    的头像 发表于 11-13 14:41 312次阅读

    英伟超越苹果成为市值最高 英伟取代英特尔加入道指

    在AI浪潮下英伟被各路资本竞相追逐,2024年英伟公司的股价累计上涨高达180%。在11月4日,英伟
    的头像 发表于 11-05 15:22 327次阅读

    英伟Blackwell架构揭秘:下一个AI计算里程碑?# 英伟# 英伟Blackwell

    英伟行业资讯
    jf_02331860
    发布于 :2024年08月26日 10:58:09

    英伟发布新版NVIDIAApp

    英伟推出了 NVIDIA App 测试版 10.0.2 版本, NVIDIA App新版本新增功能包括显示设置、RTX 视频增强控制、应用排序,以及面向其他国家 / 地区用户的应用翻译功能等。
    的头像 发表于 08-07 16:16 869次阅读

    阿尔特携手英伟,将Omniverse融入机器人研发

     近日,阿尔特公司在其机构调研活动中透露,公司正携手英伟技术团队,将Omniverse平台深度融入机器人研发领域,旨在打通英伟
    的头像 发表于 07-25 12:40 684次阅读

    英伟TITAN AI显卡曝光,性能狂超RTX 409063%!# 英伟# 显卡

    显卡英伟
    jf_02331860
    发布于 :2024年07月24日 17:18:28

    基于RK3588的8K视频解码显示案例分享!引领超高清工业视频时代

    需求:适合于大多数家庭宽带和移动网络,一般需要10 Mbps左右的带宽即可流畅播放。4K视频典型码率范围:20Mbps - 50Mbps带宽需求:需要更高的带宽来支持高清的4K视频
    发表于 07-17 11:15

    FPGA在深度学习应用中或将取代GPU

    现场可编程门阵列 (FPGA) 解决了 GPU 在运行深度学习模型时面临的许多问题 在过去的十年里,人工智能的再一次兴起使显卡行业受益匪浅。英伟 (Nvidia) 和 AMD 等公
    发表于 03-21 15:19

    英伟为什么越涨越便宜?英伟的市盈率一直在下降?

    英伟为什么越涨越便宜?英伟的市盈率一直在下降? 在2023年英伟的股价涨了两倍多;龙年开年
    的头像 发表于 03-12 18:02 1689次阅读

    英伟一天蒸发近万亿 英伟市值蒸发超9200亿元

    9234亿)。当然即使是跌去了近万亿,目前英伟的市值依然高达2.2万亿美元。 英伟的大跳水引发了市场对于泡沫的担心。但是这就仁者见仁智者见智了。 此外由于AI相关股票的暴涨,很多人
    的头像 发表于 03-10 15:42 1925次阅读

    英伟是哪个国家的品牌?

    英伟(NVIDIA)总部位于美国加利福尼亚州的圣荷西市。因此,可以说英伟是一个美国的品牌。
    的头像 发表于 03-01 16:36 1.5w次阅读

    英伟市值1.96万亿美元

    英伟市值1.96万亿美元 英伟股价一天之内大涨16%;英伟股价涨到785.38美元,市值1
    的头像 发表于 02-24 15:22 898次阅读

    英伟市值跃居全球第四 文生视频大模型Sora带动

    英伟市值跃居全球第四 文生视频大模型Sora带动 文生视频大模型Sora引发市场关注;OpenAI的首款文生视频大模型Sora横空出世带动
    的头像 发表于 02-19 16:48 973次阅读

    英伟拓展中国自动驾驶团队 高通能否战胜英伟

    英伟(Nvidia)微信官方账号发布消息,该公司正在扩大在中国的自动驾驶团队,要招募的职缺大约25个,包括:产品工程、系统整合、车辆测试、规划控制、地图等。
    的头像 发表于 12-01 10:46 1505次阅读