0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

介绍FFmpeg是什么?与关于FFmpeg的问题回答

LiveVideoStack 来源:未知 作者:工程师郭婷 2018-07-28 09:10 次阅读

1、什么是FFmpeg

FFmpeg诞生于十几年前,最初是作为一个MPlayer播放器的一个子项目出现。因为当时的播放器有需要支持各种各样解码的需求, 其中有一位Mplayer的开发者看到了这样的需求,于是编写了FFmpeg。

它作为迄今为止最流行的一个开源多媒体框架之一,FFmpeg有两种基本使用方式——作为库或者作为工具,其中后者的使用场景更多,同时它也被称为多媒体开发的“瑞士军刀”。FFmpeg库中90%的代码以上使用C,同时也有一些汇编语言上的优化,还有一些基于GPU的优化。对于汇编优化而言,由于YASM对最新CPU指令支持效果不好,FFmpeg的汇编现在正在向NASM转变。FFmpeg本身有一些基本的开发策略,希望所有的Codec集成在内部库中随时调用;当然它也在必要时可以依赖一些外部第三方库,例如像众所周知的X.264。(X.264作为一个Encoder来说已经足够优秀,我们可以看到大部分的商业产品都以X.264为对标,常会看到某某Codec宣称比X.264好多少,似乎X.264已经成为业内一个基本对标点)。FFmpeg同样也是一个跨平台的产品,主要的License是GNU GPLv2,或GNU LGPLv2.1+的,讲到这里我想说的是,希望大部分的使用者也能够在项目通过声明使用了FFmpeg这一点为开源社区带来正面的反馈。

1.1 FFmpeg的发展历史

介绍FFmpeg是什么?与关于FFmpeg的问题回答

这里需要说明的是FFmpeg与Libav之间的关系, 2011年FFmpeg社区中的一部分开发者因为某些原因脱离了FFmpeg社区并创立了Libav社区,而后来使用Libav的大部分的发行版本又慢慢迁移回了FFmpeg。但是,直到现在仍有几位脱离FFmpeg社区的主要开发者坚守在Libav,而大部分的开发者与资源都重新迁回了FFmpeg社区。现在FFmpeg的最新稳定版本为2018年4月更新的v4.0.0,从v3.4.2 到最新的v4.0.0,其中最大的改进之一便是硬件加速。

介绍FFmpeg是什么?与关于FFmpeg的问题回答

1.2使用场景

FFmpeg有很多使用场景,其中较为典型的有播放器、媒体编辑器、云转码等等。据我所知有上图中左侧的这些公司在以上场景中使用FFmpeg,而右侧的公司则是将FFmpeg作为第三方Codec使用。

2、FFmpeg组件

介绍FFmpeg是什么?与关于FFmpeg的问题回答

关于FFmpeg组件,大家可以在网上查到使用FFmpeg的API编写播放器的教程文章。FFmpeg组件中应用最多的是FFmpeg,它被用于进行转码,而FFprobe则被用于进行码流分析(这些都是基于命令行的工具);而FFserver的代码库已经被删除,其最主要的原因是FFmpeg Server的维护状态并不好,出现很多问题。最近社区又有人在重写FFmpeg Server,估计不久之后代码库会得以恢复。但这时的FFserver的实现方式跟之前已经基本没什么关系了。在上图中我们可以看到其中的Libavdevice主要使用硬件Capture或者进行SDI (流化),Libavformat是一些常见容器格式例如Mux或Demux等。我个人的大部分工作是在Libavcodec与Libavfilter,在Libavcodec上进行一些基于英特尔平台的优化,而Libavfilter主要是针对图像的后处理。我认为在AI盛行的时代Libavfilter会出现非常大的改动,加入更多新功能而非仅仅基于传统信号处理方式的图像处理。最近实际上已经有人尝试在其中集成Super Resolution,但在性能优化上仍有待改进,预计还需要持续一段时间才能真正做到实时与离线。除去作为基础组件的Libavutil,其他像Libavresample、Libswresample、Libpostproc这几个库现在都有逐渐被废弃的趋势。

2.1 基本介绍

介绍FFmpeg是什么?与关于FFmpeg的问题回答

为什么FFmpeg会有那么高的使用量? FFmpeg和Gstreamer究竟是什么关系?我也在反复思考这些问题,为什么我会用FFmpeg而不用Gstreamer?将这个问题引申来看可能会考虑:FFmpeg适合做哪些?不适合做哪些?我想人们热衷于使用FFmpeg的原因之一是FFmpeg的API非常简洁。上图是一个范例,我们可以看到只需五步就可写出一个基本的Decoder。这个例子非常容易理解,如果能将这个例子从API到底层逐步研习其细节便可对FFmpeg有更深层的认识。

2.1.1 Libavformat

介绍FFmpeg是什么?与关于FFmpeg的问题回答

Libavformat的主要任务是Demuxer/Muxer功能。我们可以看到FFmpeg的框架设计得十分精炼,基本上如果需要实现一个AVFormat或AVCodec以对应新的Format/Codec;所以即使一位开发者不了解FFmpeg框架也可以编写一个简单的Format或Codec,需要做的最主要是实现对应的AVFormat/AVCodec。

2.1.2 Libavcodec

介绍FFmpeg是什么?与关于FFmpeg的问题回答

需要提及一下的,有两种方案实现对应的Libavcodec,一种是以Native方式实现在FFmpeg内部,另一种是利用集成的第三方库,我们现在看到的一些Encoder相关的是以集成的第三方库为基础。而对于Decoder ,FFmpeg社区的开发者做得非常快。耐人寻味的是,据说FFmpeg内部VP9 的Decoder速度比Google Libvpx Decoder还要快,我们知道Google是VP9 Codec的创立者,但是Google的表现还不如FFmpeg自身的VP9 的Decoder 。

2.1.3 Libavfilter

介绍FFmpeg是什么?与关于FFmpeg的问题回答

Libavfilter是FFmpeg内部最复杂的部分之一,其代码一直在反复重构。Libavfilter的思想可能借鉴了Windows 的DirectX上一些思想,但代码却有些复杂。其构成并非像图片展示的那样是一个简单的串行关系,实际上它可以构成一个有向无环图,这意味着只要能够构成一个DAG这个LibavFilter就能工作。但是Libavfilter的综合表现并不是特别好,我一直在想尝试对其进行改进,但因为这一部分的复杂度比较高,总是令我感觉不入其门。

2.1.4 FFmpeg Transcoding

介绍FFmpeg是什么?与关于FFmpeg的问题回答

FFmpeg的应用场景之一是Transcoding转码,涉及Demux/Decoder/Encoder/Muxer,同时我们可以把Demux+Mux的流程看作是它的一个特例。另一应用场景是作为Player播放器,上图展示了Transcoding与Player两种应用场景的流程。

3、FFmpeg开发

介绍FFmpeg是什么?与关于FFmpeg的问题回答

FFmpeg中比较重要的API包括如何进行Decoder、Postprocess、Encoder等。如果你对此感兴趣,我认为最好的办法是去认真看一看FFmpeg里一些很好的例子。最近两年FFmpeg把过去的API进行了重构,如果我以原来的FFmpeg API为基础进行解码,其做法是输入一个已经压缩过的Frame数据并希望得到一个解码的Frame,但实际上此过程存在的限制是需要确保输入的Frame与解码出的数据一一对应。后来随着开发的深入,特别是H.264提供的MVC这种模式以后,有时我们输入一个Frame后需要分左右解码两个帧,此时它的API便无法支持这种场景。因此最近FFmpeg的API被从输入一个Frame输出一个Packet修改为两个API,这样便可解除它们之间的耦合。当然由于输入与解码变成了两个分离的步骤,导致代码中需要大量的While循环来判断此解码过程是否结束。

4、硬件加速

介绍FFmpeg是什么?与关于FFmpeg的问题回答

我在英特尔负责FFmpeg硬件加速的工作,因此更关注FFmpeg的硬件加速在英特尔GPU上的表现。我们一直在考虑如何更快地将英特尔的硬件加速方案推荐给客户使用,让用户能够有机会体验到硬件加速的强大功能。现在英特尔提出的两种通过FFmpeg驱动GPU的硬件加速方案,其中一种方案基于MediaSDK,我想如果你用过英特尔的GPU便应该会对其有所了解,已经有很多客户基于MediaSDk进行了部署,其中,MediaSDK的VPP部分作为AVFilter也在FFmpeg内部;另一种更为直接的方案是VA-API,VA-API类似于Windows上提供的DXV2或是MacOS上提供的Video Toolbox等基于OS层面的底层硬件加速API,我现在的大部分的工作专注于此领域。FFmpeg同样集成了OpenCL的一些加速,它使得你可以借助GPU进行转码工作并在整套流程中不涉及GPU与CPU的数据交换,这个方案方案会带来明显的性能提升。我们虽希望从解码到VPP再到编码的整条流程都可以在GPU内完成,但GPU的一些功能上的缺失需要其他硬件加速功能来弥补,此时就可考虑使用OpenCL优化。其次是因为OpenCV已经进行了大量的OpenCL加速,所以当面对这种图像后处理的硬件加速需求时可以考虑把OpenCV集成到FFmpeg中,但在OpenCV发展到v3.0后其API从C切换到了C++,而FFmpeg自身对C++的API支持并不友好,这也导致了FFmpeg的官方版本中只支持OpenCV到v2.4。如果你对此感兴趣,可以尝试基于在OpenCV v3.0以上的版本做一个新的C Warper,再考虑集成进FFmpeg。但如果你对性能要求足够高,直接使用VA-API和OpenCL去做优化,保证整个流程能够在GPU内部完整运行,达到最好的性能表现。

介绍FFmpeg是什么?与关于FFmpeg的问题回答

上图是对GFFmpeg硬件加速的流程概览图,大部分人可能对英特尔的两套方案有比较清晰的认识,最关键的点在于QSV方案依赖于MediaSDK,而VA-API则可以理解为将整个MediaSDK做的工作完整的放进了FFmpeg的内部,与FFmpeg融为一体,FFmpeg开发者与社区更推荐后者。现在的OCL方案最近也正不停的在有一些Patch进来,这里主要是对AVFilter的处理的过程进行硬件加速。需要说明一下,因为社区曾经有尝试用OpenCL加速X.264使其成为一个更快的Codec,但结果并不是特别好。所以用OpenCL去硬件加速Encoder,其整体性能提升并不是特别明显。

介绍FFmpeg是什么?与关于FFmpeg的问题回答

上图展示了更多细节,我们可以看到每种方案支持的Codec与VPP的功能与对应的Decoder和Encoder。

介绍FFmpeg是什么?与关于FFmpeg的问题回答

这两种方案的差异在于实际上是QSV Call第三方的Library,而VA-API直接基于VA-API 的Interface,使用FFmpeg的Native 实现而并不依赖任何第三方外部库。

VA-API

介绍FFmpeg是什么?与关于FFmpeg的问题回答

经常会有人提出疑问:VA-API是什么?它的本质类似于Microsoft在Windows上提出的DXVA2,也就是希望用一套抽象的接口去隐藏底层硬件细节,同时又暴露底层硬件的基本能力。VA-API有多个可用后端驱动,最常见的是原先英特尔OTC提供的VA (i965)的驱动,现如今在Linux发行版本中也存在;而Hybird驱动则更多被用于当硬件的一些功能还没有准备好的情景,需要先开发一个仿真驱动;等硬件部分准备完成后再使正式驱动。第三个是iHD/Media driver,这部分驱动在去年年底时Intel便已经开源,这一套驱动对比i965驱动其图像质量和性能表现更优但稳定性较差。现在我一直在此领域工作,希望它能够更好地支持FFmpeg。Mesa’s State-Trackers主要支持AMD的GPU,但是由于现在只有Decoder而Encoder处在试验阶段一直未开放,所以AMD的GPU在FFmpeg上无法进行Encoder加速。

介绍FFmpeg是什么?与关于FFmpeg的问题回答

上图是VA-API的一些基本概念,在这里我就不做过多阐述。

介绍FFmpeg是什么?与关于FFmpeg的问题回答

这是基于VA-API 一个基本流程。FFmpeg的VA-API也是基于此流程做的。

开放问题

介绍FFmpeg是什么?与关于FFmpeg的问题回答

FFmpeg的QSV硬件加速方案究竟有什么优缺点?如果将 FFmpeg与GStreamer比较,什么情况下选择FFmmpeg什么情况下选择GStreamer,这是我一直在反反复复考虑的内容,还有FFmpeg与OpenMAX的差别这些(Android使用了OpenMAX)。对于未来趋势,我们期待基于FFmpeg与英特尔的GPU构建一个全开源的解决方案,将整个开发流程透明化;在之后我们也考虑OpenCL的加速 ,顺带说一句,作为OpenCL最初的支持者的Apple,在不久前的WWDC上称要放弃OpenCL,不过从现实来看,如果想在GPU或异构上进行硬件加速开发,OpenCL仍然是最优的选择。其他方案直到现在还没有OpenCL的广泛适应度。实际上OpenCL本身的推出并不是特别的成功,在OpenCL过去的十年发展中并没有出现杀手级应用;另一个趋势是,Vulkan作为OpenGL的后继者开始流行,因此业界也在考虑直接把OpenCL作为Vulkan部分合并在一起。另外,OpenCV有大量的OpenCL优化,如果你不愿意重写OpenCL的优化,可以考虑用FFmpeg与 OpenCV一起加速来构建整个流程。

上图展示了你所见的基于各个OS与硬件厂商的硬件加速状态。大部分专注于硬件加速的开发者更关心播放器的表现,在Windows上进行硬件编码的需求并不强。

Q&A

Q1:FFmpeg Server最近的一些大改动是什么?

A:FFmpeg Server的代码在最新版本的FFmpeg里已经不存在了,主要是由于维护者并不积极。现在又有开发者正在重写FFmpeg Server并且已经Review到第三轮,我相信最快需要一两个月它又会回到FFmpeg里面,但和以前的FFmpeg Server完全不一样。

Q2:FFmpeg 4.0已经有VA-API的方案吗?

A:VA-API的Encoder从3.3.1开始支持,这部分的代码从2016年到2018年一直在进行重构,在4.0.0时VA-API的Encoder都可以支持。届时是一个开箱即用的状态。

Q3:安卓平台现在可以硬件加速吗?

A:VA-API的方案是英特尔的,由于英特尔的产品生态缘故,安卓的解决方案是基于MediaCodec而非VA-API,其硬件加速就目前而言只有解码加速没有编码加速。

Q4:后台的多任务转码服务器需要用硬件来编码,那么可以同时进行多少任务?如果根据硬件的核心数量来决定,那么超过性能极限是否会导致创建编码器失败?

A:如果是基于CPU的编码方案,那么编码的性能与CPU的线程数有关,而FFmpeg性能并未和CPU的核心数量构成一个线性关系;如果是基于GPU的编码方案,包括1对n的转码,这需要以官方测试为准。英特尔在官方网站的GPU参数有相关数据,这与硬件平台有非常大的关系,具有强大性能的硬件平台可以保证良好的编解码运算处理能力。

Q5:还有一个跟WebRTC相关的问题,他说这个在WebRTC 在Chrome里FFmpeg实现硬件加速有哪些,可以替换其他版本的FFmpeg吗?

A:据我所知在ChromeOS中只有当自身API硬件加速不工作的情况下才会使用FFmpeg,Chrome可以说是把FFmpeg作为一个备选方案,并没有直接用作硬件加速。

Q6:英特尔 Collabration 的客户端SDK,支持喂数据给WebRTC的,这里硬件编码是用的WebRTC内部,还是自己替换的?

A:英特尔 Collabration的客户端我不知道这个事情,在Server端采用了三套方案,一套方案是MediaSDK进行硬件加速,第二套方案是VPX以支持VP8,VP9 ,其他还有支持另外格式的方案。我无法准确推断是否会用FFmpeg进行硬件加速与软件解码,之前与内部有过相关的的交流,但最终没有决定。

Q7:还有个问题,FFmpeg有哪些Filter是使用了硬件加速,有没有这方面的加速计划?

A:现在是有这个计划,以下图片可以说明

介绍FFmpeg是什么?与关于FFmpeg的问题回答

现在已经有一些基本的硬件加速,主要是一些ColorSpace的转换,有一些Scaling,再就是 Deinterlace,FRC现在考虑OpenCL去做,因为 iHD driver这块支持应当没有了。预计更多的OpenCL会进行加速,我们希望Decoder + Filter + Encoder的整个过程都在GPU内部运算完成从而减少CPU的性能损耗,同时也希望OpenCL具有一定的灵活度。

Q8:VA-API在Linux下支持哪些型号CPU?

A:这与驱动有关,总体来说i965支持更多的处理器,iHD支持英特尔Skylake架构以后的处理器

Q9:如何提升硬件编解码的质量?

A:这是硬件编解码方面的老大难问题,每一个做硬件编解码的人都会提出类似的问题。因特尔曾提出了一个被称为FEI的解决方案,其原理是仅提供GPU中与硬件加速相关的最基本功能,而像图像质量等方面的提升则基于搜索算法等非硬件加速功能。这就使得可以让用户考虑使用自己的算法,而与计算量相关的问题则交给GPU处理,但此方案并未出现一个特别成熟的应用。

Q10:基于CPU、GPU设置FFmpeg线程数,线程数和核心数有什么对应关系?

A:其实对GPU而言处理速度已经足够快,运行多进程的转码对GPU而言基本没有什么影响。根据实测来看,例如运行4进程的转码,对CPU和GPU的消耗没有特别大的区别。但在这种情况下如果是用GPU进行,我的建议是用进程会更好管理。其次是FFmpeg自身1对n的特性使得在价格上比较敏感,这也是我们一直致力改进的重点。相信改进之后会为1对n转码带来一个比较大的提升,但就目前而言仍处于内部设计的初级阶段。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 处理器
    +关注

    关注

    68

    文章

    19134

    浏览量

    228900
  • 英特尔
    +关注

    关注

    60

    文章

    9874

    浏览量

    171343

原文标题:FFmpeg Maintainer赵军:FFmpeg关键组件与硬件加速

文章出处:【微信号:livevideostack,微信公众号:LiveVideoStack】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    【米尔NXP i.MX 93开发板试用评测】03.在Debian系统中进行异构通信及总结

    在官方Yocto构建的Linux中,异构通信介绍的比较详细,那么在Debian下是否也是可以的呢?回答当然是肯定的,所以我希望在Debian下可以测试一下异构通信,刚好官方为我们提供了测试的程序
    发表于 08-21 17:24

    如何移植FFmpeg

    FFmpeg是一款专门用于处理数字音频和视频,支持录制、转换,并能将这些媒体内容转化为实时流数据的开源计算机程序。它遵循LGPL或GPL许可协议,为用户提供了涵盖音视频录制、格式转换及流媒体分发
    的头像 发表于 06-07 15:28 1598次阅读
    如何移植<b class='flag-5'>FFmpeg</b>

    嵌入式学习-飞凌嵌入式ElfBoard ELF 1板卡-如何移植FFmpeg

    FFmpeg是一款专门用于处理数字音频和视频,支持录制、转换,并能将这些媒体内容转化为实时流数据的开源计算机程序。它遵循LGPL或GPL许可协议,为用户提供了涵盖音视频录制、格式转换及流媒体分发
    发表于 06-06 09:32

    飞凌嵌入式ElfBoard ELF 1板卡-如何移植FFmpeg

    FFmpeg是一款专门用于处理数字音频和视频,支持录制、转换,并能将这些媒体内容转化为实时流数据的开源计算机程序。它遵循LGPL或GPL许可协议,为用户提供了涵盖音视频录制、格式转换及流媒体分发
    发表于 06-06 09:17

    《深入理解FFmpeg阅读体验》FFmpeg摄像头测试

    零、前期工作 上文FFmpeg移植完成后,需要将x264/lib文件夹下的库文件拷贝到开发板的/lib/目录下,将ffmpeg_install/lib文件夹下的库文件全部拷贝到开发板的/lib/目录
    发表于 04-17 19:06

    【米尔-芯驰D9360商显板试用评测】USB摄像头测试

    零、前期工作 上文FFmpeg移植完成后,需要将x264/lib文件夹下的库文件拷贝到开发板的/lib/目录下,将ffmpeg_install/lib文件夹下的库文件全部拷贝到开发板的/lib/目录
    发表于 04-17 19:03

    《深入理解FFmpeg阅读体验》

    , not stripped pkgconfig:directory 二、编译FFmpeg 首先从FFmpeg官方网站http://ffmpeg.org/download.html上下载FF
    发表于 04-16 22:54

    【米尔-芯驰D9360商显板试用评测】FFmpeg移植

    , cross-platform solution to record, convert and stream audio and video. 在此推荐《深入理解FFmpeg》,因为本书详细介绍了开源音视频处理软件
    发表于 04-16 22:48

    【米尔-芯驰D9360商显板试用评测】使用ffmpeg实现远程视频监控

    【硬件】 1、米尔-芯驰D9360商显板 2、usb摄像头 【软件】 1、ffmpeg 2、EasyDarwin 3、vlc播放器 【实现步骤】 1、从ffmpeg下载aarch64编译好的版本
    发表于 04-11 13:07

    ESP32摄像头延时摄影

    的简便方法,使用Node-Camera固件(https://www.nodematrix.cn/firmware/)。Node-Camera固件使用说明详解介绍了固件功能(https
    发表于 02-17 15:30

    《深入理解FFmpeg阅读体验》ffmpeg安装

    书中讲了如何编译安装,我看了一下比较复杂,所以下载安装包进行安装,下载网址:Download FFmpeg 下载完后解压出来在bin目录下面有三个文件: 复制这个目录: C:\\\\Users
    发表于 01-25 21:35

    【爱芯派 Pro 开发板试用体验】4.使用ffmpeg的API编程及初探PRO的硬编硬解

    是必须要进行的一关,所以我认为还是要继续下去的。 FFMPEG的API编程 如果是希望测试FFMPEG的话,可以直接使用APT进行安装FFMPEG,然后使用CONSOLE进行测试,不过就不要测试他的软编了
    发表于 01-09 13:07

    《深入理解FFmpeg阅读体验》初识有感

    【感谢】 这两年来,多有接触到有关视频的处理方法,特别是想把mp4转换为gif,我搜索到FFmpeg是可以转换的,而且速度及快。再有就是很多的嵌入式开发板可以快速用FFmpeg来生成视频流。这次论坛
    发表于 01-07 19:48

    《深入理解FFmpeg阅读体验》+ 书收到了,崭新的开篇

    今天收到了《深入理解FFmpeg》 崭新的书,一个在2022年较近距离接触过却尚未深入研究的领域图像处理。最近刚好在作这方面的研究,希望自己可以把握这次机会,好好学习下 FFMpeg,相信可以让自己
    发表于 01-07 18:57

    音视频

    对音视频技术都喜欢深究内部最核心的原理和机制,尤其是ffmpeg这个编解码库,可以说是音视频领域事实上的标准。语音智能算法,语言语义分析和理解,流媒体服务器等高端技术也都基于它而构建。希望有幸获得本书,深度学习ffmpeg核心技术,和作者一起在技术海洋中探索和进步。
    发表于 11-23 08:51