0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

深度学习的火热,GPU面临严峻挑战

454398 来源:ST社区 作者:ST社区 2020-10-15 10:32 次阅读

人工智能兴起之后,安防行业就成为了人工智能技术最大的试验田,也是落地的主要场景之一。

对于视频监控行业来说,在GPU的CUBA模块出现后(相关链接:为何GPU能在安防行业呼风唤雨?十几年前这件事改变了安防前端格局),前端摄像机对GPU的依赖就越来越重,一台摄像机能够搭载什么样的智能算法,算力又如何很大程度上取决于GPU的性能。

然而安防行业是一个场景化的行业,GPU再好也有着它的局限性。在AI发展的浪潮下,越来越多的安防企业选择自研芯片来适应更细分的需求。

各个安防企业都铆足力气或自研或合作生产安防芯片,几乎每隔几天就能蹦出一条非GPU安防芯片问世的新闻,在这个势头下,不少人都在心里打鼓:“是否GPU的王朝就要结束了?”

随着深度学习的火热,GPU面临严峻挑战

王朝是否结束先按下不表,但从2019年全年智能安防芯片的产出来看,ASICFPGA表现优秀,更是有专家表示,在细分场景的深度学习方面安防芯片已经展现出了良好的发展趋势,那么我们今年就来看一下2019年安防芯片得到了哪些发展机遇,又有哪些安防芯片表现出不俗的竞争力。

智慧安防需求多样,AI安防芯片崛起契机来临

在传统的认知中,算法的深度学习都依赖GPU的CUBA模块,根据吴恩达教授在2011的实验结果表明,12颗英伟达GPU可以提供相当于2000颗CPU的深度学习性能。

但CPU作为图像处理器时,设计初衷是为了应对图像处理中的大规模并行计算。因此应用于深度学习时有明显的局限性。

首先就是硬件结构完全由GPU厂商决定(主要是英伟达),其次是在深度学习方面,其效能远低于ASIC及FPGA芯片。

通俗的讲,采用GPU,你可以定制场景化的算法,但硬件性能以及发挥的效率完全是由英伟达决定,且算法的复杂程度还需要卡GPU的效能决定。

尽管GPU目前依靠其优秀的编程环境和顶尖的算力依旧稳坐AI芯片市场NO1的地位,但其他两种芯片已呈现出后来居上之势。

ASIC和FPGA在安防行业越来越得到重视

算力的优势并不是凭空而来,传统的GPU虽然在算力上占尽优势,但存在严重的晶体管堆料的现象,导致其利用效率不高而且造成的功耗远高于其他两种芯片,对于以7X24小时运行的安防设备来说,这样的功耗很难接受。

市场上虽然对这些缺点还算比较容忍,(毕竟客户主要更关心算力)。但长此以往无异于饮鸩止渴。

在设计层面,由于摩尔定律的失效。7nm后制程升级越来越困难,GPU若想保持其算力优势势必还会走“堆料”的路子,在云端市场不断发展的今天,这样的市场越来越难以为继。也导致不少安防厂商纷纷开发自己的ASIC和终端的FPGA市场。

由一家独大,到如今隐隐的三分天下之势,GPU确实该考虑如何更好的适应市场了。

激烈的安防芯片竞争

在AI芯片选择方面,一般是有钱的选择ASIC,早期过渡和追求性价比会选择FPGA。

FPGA的是很多创业公司初期选择的平台,深鉴、寒武纪、地平线、比特大陆都先后使用过FPGA,商汤等视觉公司也应用过FPGA+GPU的解决方案,但当业务发展到一定程度后,都逐步开始转向ASIC。

这是由于其芯片结构决定的,FPGA相比GPU功耗更低,相比ASIC具有更短的开发时间和更低的开发成本。

一句话总结就是方便、性价比高。且由于英特尔于2015年收购了最成功的的FPGA芯片厂商Altera(151亿美元的天价,不得不说英特尔也是给CPU研发部门下了“死命令”),近年来不断推出CPU+FPGA的组合给各个行业都带来了前所未有的AI发展机遇。

成本低、重构灵活成为FPGA最大的竞争筹码

且由于近两年业界对于深度的学习能力大为推崇,在这方面具有优势的FPGA无疑就成为了很多厂商的选择。

相比性价比较高的FPGA,ASIC芯片无疑就彰显了定制化芯片的霸气。除了不能像FPGA那样进行功能扩展和重构以外,ASIC芯片几乎满足了所有安防高端定制化的需求,在功耗、可靠性、体积方面优势很大,尤其是在移动端,其高性能、低功耗的特点成为了众多厂商的首选。

尤其是人工智能越来越深度化的当下,人们对于智能化深度的要求越来越高。相对应的芯片需要运行的算法也越来越复杂,这都要求芯片拥有一套专用的架构与其进行对应,而ASIC芯片完美地满足了这一需求。

而ASIC应用的典型的代表就是知名的Alpha Go的大脑:谷歌研发的TPU芯片,其强大的深度学习能力和较低的功耗都让业内艳羡。

据寒武纪发布的指令集指出,未来ASIC芯片将是AI芯片的核心。

不过研发ASIC芯片的一大难题就是其高昂的成本和较长的开发周期。目前,致力于研发AISC芯片的都是既擅长芯片研发又具备AI算法的行业巨头,适用于已经具有一定规模且需求场景化定制需求的安防大厂。

除了这几大类以外,目前安防行业还有云端芯片和类脑芯片具有强大的竞争力。

不过不管谁将在这场竞争中胜出,GPU在安防行业中的衰落或将成为现实,而在AI芯片的竞争当中谁又能拔得头筹,这还要看他们具体和安防行业的适配程度。

智能芯片市场玩家可不止“御三家”

自研芯片的春天

2019年,我国安防芯片取得了很大的成就,不管是泛用性极广的海思Hi3516CV500、昇腾系列、还是具有超高集成度的国科微GK7205/GK7205S、亦或是致力于智慧城市建设的地平线旭日1.0都向我们揭示了如今安防行业对于定制化AI芯片的渴求。

在新的一年里,随着安防智能化的不断深入,AI芯片行业竞争也会愈加激烈,但无论如何这对于中国安防的发展,都是多了一种选择,也多了一份效能。

编辑:hfy

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • FPGA
    +关注

    关注

    1629

    文章

    21738

    浏览量

    603464
  • asic
    +关注

    关注

    34

    文章

    1200

    浏览量

    120510
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4740

    浏览量

    128955
  • 人工智能
    +关注

    关注

    1791

    文章

    47282

    浏览量

    238536
  • 安防芯片
    +关注

    关注

    1

    文章

    24

    浏览量

    16313
收藏 人收藏

    评论

    相关推荐

    深度学习工作负载中GPU与LPU的主要差异

    ,一个新的竞争力量——LPU(Language Processing Unit,语言处理单元)已悄然登场,LPU专注于解决自然语言处理(NLP)任务中的顺序性问题,是构建AI应用不可或缺的一环。 本文旨在探讨深度学习工作负载中GPU
    的头像 发表于 12-09 11:01 300次阅读
    <b class='flag-5'>深度</b><b class='flag-5'>学习</b>工作负载中<b class='flag-5'>GPU</b>与LPU的主要差异

    GPU深度学习中的应用 GPUs在图形设计中的作用

    随着人工智能技术的飞速发展,深度学习作为其核心部分,已经成为推动技术进步的重要力量。GPU(图形处理单元)在深度学习中扮演着至关重要的角色,
    的头像 发表于 11-19 10:55 518次阅读

    深度学习中RNN的优势与挑战

    循环神经网络(RNN)是深度学习领域中处理序列数据的基石。它们通过在每个时间步长上循环传递信息,使得网络能够捕捉时间序列数据中的长期依赖关系。然而,尽管RNN在某些任务上表现出色,它们也面临着一些
    的头像 发表于 11-15 09:55 406次阅读

    NPU在深度学习中的应用

    设计的硬件加速器,它在深度学习中的应用日益广泛。 1. NPU的基本概念 NPU是一种专门针对深度学习算法优化的处理器,它与传统的CPU和GPU
    的头像 发表于 11-14 15:17 591次阅读

    pcie在深度学习中的应用

    深度学习模型通常需要大量的数据和强大的计算能力来训练。传统的CPU计算资源有限,难以满足深度学习的需求。因此,GPU(图形处理单元)和TPU
    的头像 发表于 11-13 10:39 403次阅读

    GPU深度学习应用案例

    GPU深度学习中的应用广泛且重要,以下是一些GPU深度学习应用案例: 一、图像识别 图像识别是
    的头像 发表于 10-27 11:13 398次阅读

    深度学习GPU加速效果如何

    图形处理器(GPU)凭借其强大的并行计算能力,成为加速深度学习任务的理想选择。
    的头像 发表于 10-17 10:07 200次阅读

    FPGA做深度学习能走多远?

    的发展前景较为广阔,但也面临一些挑战。以下是一些关于 FPGA 在深度学习中应用前景的观点,仅供参考: • 优势方面: • 高度定制化的计算架构:FPGA 可以根据
    发表于 09-27 20:53

    深度学习算法在嵌入式平台上的部署

    随着人工智能技术的飞速发展,深度学习算法在各个领域的应用日益广泛。然而,将深度学习算法部署到资源受限的嵌入式平台上,仍然是一个具有挑战性的任
    的头像 发表于 07-15 10:03 1412次阅读

    基于深度学习的小目标检测

    )的广泛应用,小目标检测的性能得到了显著提升。本文将详细探讨基于深度学习的小目标检测技术,包括其定义、挑战、常用方法以及未来发展方向。
    的头像 发表于 07-04 17:25 890次阅读

    深度学习的模型优化与调试方法

    深度学习模型在训练过程中,往往会遇到各种问题和挑战,如过拟合、欠拟合、梯度消失或爆炸等。因此,对深度学习模型进行优化与调试是确保其性能优越的
    的头像 发表于 07-01 11:41 825次阅读

    新手小白怎么学GPU云服务器跑深度学习?

    新手小白想用GPU云服务器跑深度学习应该怎么做? 用个人主机通常pytorch可以跑但是LexNet,AlexNet可能就直接就跑不动,如何实现更经济便捷的实现GPU云服务器
    发表于 06-11 17:09

    大模型时代,国产GPU面临哪些挑战

    ,国产GPU在不断成长的过程中也存在诸多挑战。   在大模型训练上存在差距   大语言模型是基于深度学习的技术。这些模型通过在海量文本数据上的训练,
    的头像 发表于 04-03 01:08 4670次阅读
    大模型时代,国产<b class='flag-5'>GPU</b><b class='flag-5'>面临</b>哪些<b class='flag-5'>挑战</b>

    FPGA在深度学习应用中或将取代GPU

    基础设施,人们仍然没有定论。如果 Mipsology 成功完成了研究实验,许多正受 GPU 折磨的 AI 开发者将从中受益。 GPU 深度学习面临
    发表于 03-21 15:19

    详解深度学习、神经网络与卷积神经网络的应用

    在如今的网络时代,错综复杂的大数据和网络环境,让传统信息处理理论、人工智能与人工神经网络都面临巨大的挑战。近些年,深度学习逐渐走进人们的视线,通过
    的头像 发表于 01-11 10:51 2055次阅读
    详解<b class='flag-5'>深度</b><b class='flag-5'>学习</b>、神经网络与卷积神经网络的应用