0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

深度学习的火热,GPU面临严峻挑战

454398 来源:ST社区 作者:ST社区 2020-10-15 10:32 次阅读

人工智能兴起之后,安防行业就成为了人工智能技术最大的试验田,也是落地的主要场景之一。

对于视频监控行业来说,在GPU的CUBA模块出现后(相关链接:为何GPU能在安防行业呼风唤雨?十几年前这件事改变了安防前端格局),前端摄像机对GPU的依赖就越来越重,一台摄像机能够搭载什么样的智能算法,算力又如何很大程度上取决于GPU的性能。

然而安防行业是一个场景化的行业,GPU再好也有着它的局限性。在AI发展的浪潮下,越来越多的安防企业选择自研芯片来适应更细分的需求。

各个安防企业都铆足力气或自研或合作生产安防芯片,几乎每隔几天就能蹦出一条非GPU安防芯片问世的新闻,在这个势头下,不少人都在心里打鼓:“是否GPU的王朝就要结束了?”

随着深度学习的火热,GPU面临严峻挑战

王朝是否结束先按下不表,但从2019年全年智能安防芯片的产出来看,ASICFPGA表现优秀,更是有专家表示,在细分场景的深度学习方面安防芯片已经展现出了良好的发展趋势,那么我们今年就来看一下2019年安防芯片得到了哪些发展机遇,又有哪些安防芯片表现出不俗的竞争力。

智慧安防需求多样,AI安防芯片崛起契机来临

在传统的认知中,算法的深度学习都依赖GPU的CUBA模块,根据吴恩达教授在2011的实验结果表明,12颗英伟达GPU可以提供相当于2000颗CPU的深度学习性能。

但CPU作为图像处理器时,设计初衷是为了应对图像处理中的大规模并行计算。因此应用于深度学习时有明显的局限性。

首先就是硬件结构完全由GPU厂商决定(主要是英伟达),其次是在深度学习方面,其效能远低于ASIC及FPGA芯片。

通俗的讲,采用GPU,你可以定制场景化的算法,但硬件性能以及发挥的效率完全是由英伟达决定,且算法的复杂程度还需要卡GPU的效能决定。

尽管GPU目前依靠其优秀的编程环境和顶尖的算力依旧稳坐AI芯片市场NO1的地位,但其他两种芯片已呈现出后来居上之势。

ASIC和FPGA在安防行业越来越得到重视

算力的优势并不是凭空而来,传统的GPU虽然在算力上占尽优势,但存在严重的晶体管堆料的现象,导致其利用效率不高而且造成的功耗远高于其他两种芯片,对于以7X24小时运行的安防设备来说,这样的功耗很难接受。

市场上虽然对这些缺点还算比较容忍,(毕竟客户主要更关心算力)。但长此以往无异于饮鸩止渴。

在设计层面,由于摩尔定律的失效。7nm后制程升级越来越困难,GPU若想保持其算力优势势必还会走“堆料”的路子,在云端市场不断发展的今天,这样的市场越来越难以为继。也导致不少安防厂商纷纷开发自己的ASIC和终端的FPGA市场。

由一家独大,到如今隐隐的三分天下之势,GPU确实该考虑如何更好的适应市场了。

激烈的安防芯片竞争

在AI芯片选择方面,一般是有钱的选择ASIC,早期过渡和追求性价比会选择FPGA。

FPGA的是很多创业公司初期选择的平台,深鉴、寒武纪、地平线、比特大陆都先后使用过FPGA,商汤等视觉公司也应用过FPGA+GPU的解决方案,但当业务发展到一定程度后,都逐步开始转向ASIC。

这是由于其芯片结构决定的,FPGA相比GPU功耗更低,相比ASIC具有更短的开发时间和更低的开发成本。

一句话总结就是方便、性价比高。且由于英特尔于2015年收购了最成功的的FPGA芯片厂商Altera(151亿美元的天价,不得不说英特尔也是给CPU研发部门下了“死命令”),近年来不断推出CPU+FPGA的组合给各个行业都带来了前所未有的AI发展机遇。

成本低、重构灵活成为FPGA最大的竞争筹码

且由于近两年业界对于深度的学习能力大为推崇,在这方面具有优势的FPGA无疑就成为了很多厂商的选择。

相比性价比较高的FPGA,ASIC芯片无疑就彰显了定制化芯片的霸气。除了不能像FPGA那样进行功能扩展和重构以外,ASIC芯片几乎满足了所有安防高端定制化的需求,在功耗、可靠性、体积方面优势很大,尤其是在移动端,其高性能、低功耗的特点成为了众多厂商的首选。

尤其是人工智能越来越深度化的当下,人们对于智能化深度的要求越来越高。相对应的芯片需要运行的算法也越来越复杂,这都要求芯片拥有一套专用的架构与其进行对应,而ASIC芯片完美地满足了这一需求。

而ASIC应用的典型的代表就是知名的Alpha Go的大脑:谷歌研发的TPU芯片,其强大的深度学习能力和较低的功耗都让业内艳羡。

据寒武纪发布的指令集指出,未来ASIC芯片将是AI芯片的核心。

不过研发ASIC芯片的一大难题就是其高昂的成本和较长的开发周期。目前,致力于研发AISC芯片的都是既擅长芯片研发又具备AI算法的行业巨头,适用于已经具有一定规模且需求场景化定制需求的安防大厂。

除了这几大类以外,目前安防行业还有云端芯片和类脑芯片具有强大的竞争力。

不过不管谁将在这场竞争中胜出,GPU在安防行业中的衰落或将成为现实,而在AI芯片的竞争当中谁又能拔得头筹,这还要看他们具体和安防行业的适配程度。

智能芯片市场玩家可不止“御三家”

自研芯片的春天

2019年,我国安防芯片取得了很大的成就,不管是泛用性极广的海思Hi3516CV500、昇腾系列、还是具有超高集成度的国科微GK7205/GK7205S、亦或是致力于智慧城市建设的地平线旭日1.0都向我们揭示了如今安防行业对于定制化AI芯片的渴求。

在新的一年里,随着安防智能化的不断深入,AI芯片行业竞争也会愈加激烈,但无论如何这对于中国安防的发展,都是多了一种选择,也多了一份效能。

编辑:hfy

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • FPGA
    +关注

    关注

    1625

    文章

    21620

    浏览量

    601185
  • asic
    +关注

    关注

    34

    文章

    1183

    浏览量

    120219
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4673

    浏览量

    128558
  • 人工智能
    +关注

    关注

    1789

    文章

    46636

    浏览量

    236989
  • 安防芯片
    +关注

    关注

    1

    文章

    24

    浏览量

    16270
收藏 人收藏

    评论

    相关推荐

    PyTorch GPU 加速训练模型方法

    深度学习领域,GPU加速训练模型已经成为提高训练效率和缩短训练时间的重要手段。PyTorch作为一个流行的深度学习框架,提供了丰富的工具和
    的头像 发表于 11-05 17:43 390次阅读

    GPU深度学习应用案例

    GPU深度学习中的应用广泛且重要,以下是一些GPU深度学习应用案例: 一、图像识别 图像识别是
    的头像 发表于 10-27 11:13 278次阅读

    深度学习GPU加速效果如何

    图形处理器(GPU)凭借其强大的并行计算能力,成为加速深度学习任务的理想选择。
    的头像 发表于 10-17 10:07 135次阅读

    FPGA做深度学习能走多远?

    的发展前景较为广阔,但也面临一些挑战。以下是一些关于 FPGA 在深度学习中应用前景的观点,仅供参考: • 优势方面: • 高度定制化的计算架构:FPGA 可以根据
    发表于 09-27 20:53

    大模型发展下,国产GPU的机会和挑战

    电子发烧友网站提供《大模型发展下,国产GPU的机会和挑战.pdf》资料免费下载
    发表于 07-18 15:44 6次下载
    大模型发展下,国产<b class='flag-5'>GPU</b>的机会和<b class='flag-5'>挑战</b>

    深度学习算法在嵌入式平台上的部署

    随着人工智能技术的飞速发展,深度学习算法在各个领域的应用日益广泛。然而,将深度学习算法部署到资源受限的嵌入式平台上,仍然是一个具有挑战性的任
    的头像 发表于 07-15 10:03 1092次阅读

    基于深度学习的小目标检测

    )的广泛应用,小目标检测的性能得到了显著提升。本文将详细探讨基于深度学习的小目标检测技术,包括其定义、挑战、常用方法以及未来发展方向。
    的头像 发表于 07-04 17:25 698次阅读

    深度学习的模型优化与调试方法

    深度学习模型在训练过程中,往往会遇到各种问题和挑战,如过拟合、欠拟合、梯度消失或爆炸等。因此,对深度学习模型进行优化与调试是确保其性能优越的
    的头像 发表于 07-01 11:41 637次阅读

    新手小白怎么学GPU云服务器跑深度学习?

    新手小白想用GPU云服务器跑深度学习应该怎么做? 用个人主机通常pytorch可以跑但是LexNet,AlexNet可能就直接就跑不动,如何实现更经济便捷的实现GPU云服务器
    发表于 06-11 17:09

    大模型时代,国产GPU面临哪些挑战

    ,国产GPU在不断成长的过程中也存在诸多挑战。   在大模型训练上存在差距   大语言模型是基于深度学习的技术。这些模型通过在海量文本数据上的训练,
    的头像 发表于 04-03 01:08 4561次阅读
    大模型时代,国产<b class='flag-5'>GPU</b><b class='flag-5'>面临</b>哪些<b class='flag-5'>挑战</b>

    FPGA在深度学习应用中或将取代GPU

    基础设施,人们仍然没有定论。如果 Mipsology 成功完成了研究实验,许多正受 GPU 折磨的 AI 开发者将从中受益。 GPU 深度学习面临
    发表于 03-21 15:19

    详解深度学习、神经网络与卷积神经网络的应用

    在如今的网络时代,错综复杂的大数据和网络环境,让传统信息处理理论、人工智能与人工神经网络都面临巨大的挑战。近些年,深度学习逐渐走进人们的视线,通过
    的头像 发表于 01-11 10:51 1826次阅读
    详解<b class='flag-5'>深度</b><b class='flag-5'>学习</b>、神经网络与卷积神经网络的应用

    揭秘GPU: 高端GPU架构设计的挑战

    在计算领域,GPU(图形处理单元)一直是性能飞跃的代表。众所周知,高端GPU的设计充满了挑战GPU的架构创新,为软件承接大模型训练和推理场景的人工智能计算提供了持续提升的硬件基础。
    的头像 发表于 12-21 08:28 825次阅读
    揭秘<b class='flag-5'>GPU</b>: 高端<b class='flag-5'>GPU</b>架构设计的<b class='flag-5'>挑战</b>

    微波GaN HEMT 技术面临挑战

    报告内容包含: 微带WBG MMIC工艺 GaN HEMT 结构的生长 GaN HEMT 技术面临挑战
    发表于 12-14 11:06 356次阅读
    微波GaN HEMT 技术<b class='flag-5'>面临</b>的<b class='flag-5'>挑战</b>

    GPU深度学习中的应用与优势

    人工智能的飞速发展,深度学习作为其重要分支,正在推动着诸多领域的创新。在这个过程中,GPU扮演着不可或缺的角色。就像超级英雄电影中的主角一样,GPU
    的头像 发表于 12-06 08:27 1187次阅读
    <b class='flag-5'>GPU</b>在<b class='flag-5'>深度</b><b class='flag-5'>学习</b>中的应用与优势