0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

GPU、FPGA和ASIC鏖战AI推理

E4Life 来源:电子发烧友网 作者:周凯扬 2022-03-15 07:39 次阅读

深度学习的概念中,通常可以简化为两大工作流,一是训练,二是推理。两者完美融合才是一个现代化的完整深度学习网络,缺一不可。训练用于调整神经网络模型的参数,从而在给定的数据上实现良好的表现;推理则用于执行训练过的神经网络模型,以在新数据上获得输出。

为了让一个模型用于特定的用例,比如图像识别、语音识别等,开发者必须要先训练这个模型。一旦模型训练完成后,就可以投入使用(用于推理)。这两大工作流有着类似的特点,但对硬件资源的要求却存在一定的差距。

以训练来说,硬件需要的是大带宽大容量的内存,所以芯片之间的互联相当重要,当然了这些需求会极大地增加BOM和功耗。而推理则常用于自然语言处理、推荐系统和语音识别这样的实时应用中,因此必须做到低延迟、高吞吐量,再者由于更加贴近应用端,所以低功耗和低成本也是这类AI推理硬件的首选特性。

而这几年间,不少半导体公司、云服务厂商和初创AI芯片公司都在AI推理上频频布局,甚至收购了不少企业来放大优势或补全短板,尤其是“御三家”英伟达英特尔AMD。笔者这里特地选择了三家的代表性产品,以及他们走的不同技术路线。

市场与生态的宠儿——GPU王牌部队

自英伟达从2010年推出M2050专业GPU,并大肆推行GPGPU在AI推理上的应用后,英伟达DGX产品线在AI推理算力上的占比就在一路走高。2020年阿里云、AWS和腾讯云等公有云平台中,英伟达GPU AI推理算力超过了100 exaflops,也首次夺下了云端CPU统治多年的推理算力宝座,这其中的旗舰就是A100 GPU。

A100 SXM / 英伟达


我们以旗舰型号A100 80GB SXM为例,318 TFLOPS的TF32算力,1248 TOPS的INT8算力,80GB的GPU内存带宽达到了2039GB/s。不仅支持NVLink600GB/s的互联,也支持64GB/s的PCIe4.0互联。A100还可以被分为7个独立的GPU实例,无论是端到端AI还是数据中心的HPC平台,都适合该GPU大显身手。

但A100的缺点也相当明显,第一就是功耗,高达400W的功耗让这张卡成了很多AI推理加速器竞相对比能效比的对象。其次就是价格,高达一万美元以上的单价让不少人望而却步,至少个人开发者使用GPU或基于该GPU的云服务器的话,不免会肉疼好一阵了。

灵活的代表——FPGA抵抗军

对于AMD来说,过去主要是与英伟达、英特尔在一些通用计算领域进行交锋,而在AI训练和推理上,AMD其实并没有推出太多针对这类应用的方案,直到对Xilinx的收购。不可置否的是,AMD在数据中心和HPC已经崭露头角,甚至开始拔尖,但AI推理可以说一直是AMD的弱势所在。

其实收购的部分原因,也要归功于Xilinx在AI市场上得天独厚的优势,而这种优势在两家联手之下更加明显,这一点早在过去的合作中就可以看出来。2018年的Xilinx开发者论坛上,AMD的EPYC CPU和Xilinx的AlveoU250在GoogLeNet CNN框架上实现了3万张图片每秒的世界记录级吞吐量。目前不少公有云厂商也在用Xilinx的FPGA方案,比如阿里云就有基于XilinxVU9P的方案。

VCK5000 / Xilinx

Xilinx最近也推出了全新的VCK5000AI加速器,该卡基于Xilinx7nm的VersalACAP架构,专为高吞吐量的AI推理打造。从纸面参数上看,这张卡好像性能不算强大,在ResNet-50的吞吐量上只能算优于英伟达的T4显卡,但VCK5000还准备了一些奇招。

电路中有个叫做暗硅(DarkSilicon)的概念,指的就是在功耗限制下,处理器电路上常常出现“一方有难,多方看戏”的情况,所以实际的效能根本达不到纸面参数。而Xilinx称VCK5000将实际效率推至90%,相较英伟达GPU普遍低于50%的效率可谓秒杀了,甚至高过A100。成本上,VCK5000的单价也做到了2745美元,从性价比和TCO来说,FPGA方案可以说是真香了。

初创公司首选——ASIC异军突起

作为英特尔在2019年收购的一家以色列人工智能公司,Habana倒是很少出现在人们的视线中,远不如同被英特尔收购的以色列自动驾驶芯片公司Mobileye或是晶圆代工厂TowerSemiconductor那般高调,但他们给英特尔带来的AI方案还是有点东西的。

HL-100 / Habana


Habana拥有两大产品线,一是主打训练的Gaudi系列,二是主打推理的Goya系列。虽然两者采用了不同的芯片设计,但仍基于相同的基本架构(TPC),只不过是针对两种工作负载做了优化而已。同样以ResNet50的吞吐量作为比较,在Batch大小为10时,基于Goya的HL-100加速卡可以做到15488张图片每秒的吞吐量,更吃惊的是其延迟可以做到0.8ms。对于延迟敏感型应用来说,Goya很可能就是最佳的选择。

不过HL-100的TPC还只是基于台积电的16nm工艺而已,而基于更先进的工艺的TPC和HL-200系列迟迟没有消息公布。不知是不是Habana打算在新产品上直接用上英特尔的工艺。

孰优孰劣?还是取决于生态和市场选择

要想对比这三家AI推理加速器的性能着实有些困难,且不说三者在规模和功耗上的不同,所用系统、软件、模型、数据集和测试环境也都是各不一样。那么对于AI开发者来说,应该如何选择呢?我们不妨从市场和生态的角度来看。

首先是市场的主流选择,无疑目前市面应用占比最多的还是英伟达旗下的加速器,这在数据中心和超算等场景中都能看出来,无论是训练还是推理,云服务厂商推出最多的旗舰实例基本都是基于英伟达的A100、A30等GPU,在其TensorRT推理框架的大力推动下,英伟达占据了绝对的主导位置。然而作为通用方案,英伟达的A100在总体性能上虽然不错,但泛用性还是无法覆盖到一些特定的应用。比如主打超低延迟或超高吞吐量的场景,可能还是不如FPGA或推理专用ASIC给到的吸引力高,更不用说这些方案在成本上的优势了。

反观Xilinx的VCK5000,单纯比算力的话,FPGA与GPU、ASIC相比优势不大,倒是FPGA的可编程灵活性为开发带来了不少便利,可随时更新和优化硬件加速而无需重新设计硬件。但不少AI开发者可能看到Xilinx这个大名就望而生畏,纷纷表示自己一个深度学习“炼丹师”,可不想学Verilog之类的RTL编程设计。这也是为何英特尔和Xilinx等FPGA厂商近年来开始在软件上发力的原因,像Xilinx Vitis这样的统一软件,可以说给了一个面向全平台开发者的方案,直接支持到Pytorch和TensorFlow这些主流的框架和模型。

至于Habana的Goya这种产品形式,其实是目前不少初创公司走的路线。与以上GPU和FPGA方案相比,他们在软件开发上要花费更多的心力,所以不少初创企业的AI加速器支持的框架和模型都不是太多,支持的程度也尚未完善。至于市场反响来看,Goya也不比Habana的Gaudi训练加速器,后者已经有了基于该硬件的AWS实例,而Goya目前已知的应用还是超算。未来Goya面向的,可能还是比较“专”的场景。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • FPGA
    +关注

    关注

    1625

    文章

    21665

    浏览量

    601756
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4700

    浏览量

    128684
  • AI
    AI
    +关注

    关注

    87

    文章

    30098

    浏览量

    268380
收藏 人收藏

    评论

    相关推荐

    AI推理CPU当道,Arm驱动高效引擎

    AI的训练和推理共同铸就了其无与伦比的处理能力。在AI训练方面,GPU因其出色的并行计算能力赢得了业界的青睐,成为了当前AI大模型最热门的芯
    的头像 发表于 11-13 14:34 2015次阅读
    <b class='flag-5'>AI</b><b class='flag-5'>推理</b>CPU当道,Arm驱动高效引擎

    FPGAASIC在大模型推理加速中的应用

    随着现在AI的快速发展,使用FPGAASIC进行推理加速的研究也越来越多,从目前的市场来说,有些公司已经有了专门做推理
    的头像 发表于 10-29 14:12 204次阅读
    <b class='flag-5'>FPGA</b>和<b class='flag-5'>ASIC</b>在大模型<b class='flag-5'>推理</b>加速中的应用

    FPGAASIC的优缺点比较

    FPGA(现场可编程门阵列)与ASIC(专用集成电路)是两种不同的硬件实现方式,各自具有独特的优缺点。以下是对两者优缺点的比较: FPGA的优点 可编程性强 :FPGA具有高度的可编程
    的头像 发表于 10-25 09:24 235次阅读

    什么是AI服务器?AI服务器的优势是什么?

    AI服务器是一种专门为人工智能应用设计的服务器,它采用异构形式的硬件架构,通常搭载GPUFPGAASIC等加速芯片,利用CPU与加速芯片的组合来满足高吞吐量互联的需求,为自然语言处
    的头像 发表于 09-21 11:43 608次阅读

    自动驾驶三大主流芯片架构分析

    当前主流的AI芯片主要分为三类,GPUFPGAASICGPUFPGA均是前期较为成熟的芯
    的头像 发表于 08-19 17:11 1451次阅读
    自动驾驶三大主流芯片架构分析

    利用NVIDIA组件提升GPU推理的吞吐

    本实践中,唯品会 AI 平台与 NVIDIA 团队合作,结合 NVIDIA TensorRT 和 NVIDIA Merlin HierarchicalKV(HKV)将推理的稠密网络和热 Embedding 全置于 GPU 上进行
    的头像 发表于 04-20 09:39 639次阅读

    到底什么是ASICFPGA

    上一篇文章,小枣君给大家介绍了CPU和GPU。今天,我继续介绍计算芯片领域的另外两位主角——ASICFPGA。█ASIC(专用集成电路)上篇提到,
    的头像 发表于 04-16 08:05 210次阅读
    到底什么是<b class='flag-5'>ASIC</b>和<b class='flag-5'>FPGA</b>?

    AI服务器异构计算深度解读

    AI服务器按芯片类型可分为CPU+GPU、CPU+FPGA、CPU+ASIC等组合形式,CPU+GPU是目前国内的主要选择(占比91.9%)
    发表于 04-12 12:27 563次阅读
    <b class='flag-5'>AI</b>服务器异构计算深度解读

    fpgaasic的区别

    FPGA(现场可编程门阵列)和ASIC(专用集成电路)是两种不同类型的集成电路,它们在设计灵活性、制造成本、应用领域等方面有着显著的区别。
    的头像 发表于 03-26 15:29 1677次阅读

    FPGA在深度学习应用中或将取代GPU

    对神经网络进行任何更改,也不需要学习任何新工具。不过你可以保留你的 GPU 用于训练。” Zebra 提供了将深度学习代码转换为 FPGA 硬件指令的抽象层 AI 硬件前景
    发表于 03-21 15:19

    汽车通信芯片汇总梳理

    一、CPU/GPU/FPGA/ASIC芯片CPU/GPU/FPGA/ASIC芯片是智能汽车的“大
    的头像 发表于 02-20 16:44 1529次阅读
    汽车通信芯片汇总梳理

    到底什么是ASICFPGA

    用在ADAS(高级驾驶辅助系统)和伺服电机驱动上。 消费电子用FPGA,是因为产品迭代太快。ASIC的开发周期太长了,等做出东西来,黄花菜都凉了。 FPGAASIC
    发表于 01-23 19:08

    FPGAASICGPU谁是最合适的AI芯片?

    CPU、GPU遵循的是冯·诺依曼体系结构,指令要经过存储、译码、执行等步骤,共享内存在使用时,要经历仲裁和缓存。 而FPGAASIC并不是冯·诺依曼架构(是哈佛架构)。以FPGA
    发表于 01-06 11:20 1399次阅读
    <b class='flag-5'>FPGA</b>、<b class='flag-5'>ASIC</b>、<b class='flag-5'>GPU</b>谁是最合适的<b class='flag-5'>AI</b>芯片?

    HarmonyOS:使用MindSpore Lite引擎进行模型推理

    场景介绍 MindSpore Lite 是一款 AI 引擎,它提供了面向不同硬件设备 AI 模型推理的功能,目前已经在图像分类、目标识别、人脸识别、文字识别等应用中广泛使用。 本文介绍
    发表于 12-14 11:41

    ASICGPU,谁才是AI计算的最优解?

    电子发烧友网报道(文/周凯扬)随着AI计算开始有着风头盖过通用计算开始,不少芯片厂商都将其视为下一轮技术革新。CPU、GPUFPGAASIC纷纷投入到这轮
    的头像 发表于 12-03 08:31 2019次阅读
    <b class='flag-5'>ASIC</b>和<b class='flag-5'>GPU</b>,谁才是<b class='flag-5'>AI</b>计算的最优解?