0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Imagination发布最新一代神经网络加速器IP核

Dbwd_Imgtec 来源:芯东西 作者:董温淑 2020-11-18 16:06 次阅读

Imagination Technologies发布了最新一代神经网络加速器IP核IMG Series4 NNA,并将于12月份正式向厂商提供。

芯东西独家获悉,已有汽车领域厂商率先获得IMG Series4 NNA IP授权。

作为NNA IP系列第四代产品,IMG Series4 NNA具备创新的多核架构、高扩展性&高灵活性、超高性能、超低延迟、节省带宽、车规级安全性等功能及特性,可满足汽车、移动设备、数据中心、PC等多种应用场景的AI加速要求。

在这背后,Imagination为IMG Series4 NNA融入了怎样的设计巧思?在神经网络加速成为各行各业普遍需求的当下,IMG Series4 NNA将为满足这一需求拿出怎样的解决方案?

为回答这些问题,芯东西独家专访Imagination人工智能业务高级总监Andrew Grant,以了解IMG Series4 NNA中蕴含的“黑科技”。

01

两年打磨:成就五大核心性能亮点

我们了解到,Imagination第二代、第三代神经网络加速器IP核Series2NX和Series3NX,分别于2017年和2018年推出,两款产品的发布时间相隔一年。

相比之下,最新推出的Series4 IP核与前代产品的推出相隔两年。Andrew Grant向我们透露,2018年以来,Imagination研发团队从软硬件两方面出发,对Series4 IP进行了细致的产品设计。

在硬件层面,Imagination团队在2018年启动对Series4 IP核的研发工作,同步开始对多核(multi-core)技术(IMG 4NX-MC2、MC4、MC6、MC8)进行研发。

同时,Imagination推出其专利的Imagination Tensor Tiling(ITT)技术,可将工作负载分割以获得最优效率。

实际应用时,昨日最新亮相的Series4 NNA IP可凭借多核多集群组合,提供600 TOPS甚至更高算力,同时可为大型神经网络工作负载节省带宽、降低延迟。

其性能优势可概括为五个方面:

1、高度灵活的可扩展方案。

前两代产品均采用单核架构,相比之下,最新推出的Series4 NNA采用多核架构,允许用户集成2个、4个、6个或8个单核,提供灵活的可扩展方案。

2、超高性能。

基于Series4 NNA IP,一个8核集群可提供100 TOPS算力,那么,6个8核集群的解决方案就可以提供600 TOPS算力。

3、超低延迟。

所有内核可以并行处理一个任务,进而相应地降低延迟、缩短响应时间。举例来说,相比单核独立执行的情况,理想状态下8核集群可以把延迟降低至前者的1/8。

4、节省带宽。

Imagination Tensor Tiling技术(ITT),可利用本地数据的依赖性将中间数据保存在片上存储器中,从而将带宽降低多达90%。

5、车规级安全性。

Series4包含IP级别的安全功能且设计流程符合ISO 26262标准(解决汽车电子产品风险的行业安全标准)。

此外,IMG Series4 NNA可运行一系列AI框架,包括Caffe、PyTorch、TensorFlow、PaddlePaddle、Chainer、Cognitive Toolkit、mxnet和Open Neural Network Exchange (ONNX)等。

对神经网络的支持方面,IMG Series4可为CNN、LSTM、RNN等多种神经网络加速,同时支持YOLO v3、Kittiseg等。

02

亮剑四大领域:从PC到汽车都能用

在应用场景上,除了延续前两代产品对移动设备、PC、数据中心等应用场景的支持,Series4 NNA IP特别针对自动驾驶领域、先进驾驶辅助系统(ADAS)等汽车领域应用进行了设计。

在与客户沟通的过程中,Imagination团队了解到,现有车载神经网络加速器IP解决方案存在功耗高等方面的痛点,这正给Imagination提供了“用武之地”。 Andrew说:“我们注意到,现有的多数IP厂商提供的是数据中心、桌面级CPU等解决方案,这些方案功耗比较严重,对车载场景不友好。但Imagination有做移动应用的基因,我们在控制功耗方面有优势。” 除了降低功耗以外,Imagination研发团队还综合考虑了自动驾驶等车载场景对能效、安全性等方面的需求。“(其中)最重要的是‘安全第一’的原则。”Andrew Grant强调。

Imagination研发团队在Series4 NNA独特的多核架构中加入控制器,以最大限度地提升使用效率。在保证功耗低、带宽低的情况下,把算力扩展到业界最大水平。

安全性方面,Series4 NNA采用硬件安全机制,可以保护编译后的网络、网络的执行和数据处理管道。

此外,Andrew Grant补充到,Series4 IP还能与Imagination的车用BXS GPU互补,以实现一个功能更加完善的异构计算平台。Imagination创新的AI协同(AI Synergy)技术,可充分利用NNA和GPU的资源与优势,使AI计算性能、效率再上新台阶。

03

未来4NX产品有望在更多领域落地

Andrew Grant向芯东西透露,目前已经有汽车领域的厂商率先获得了IMG Series4 NNA IP的授权,并正推动产品落地。

谈到Imagination三代NNA IP产品之间的关系,Imagination方面表示,前两代神经网络加速器IP已经达到了Imagination的市场预期,在移动、安防监控、IoT等对算力要求相对较低的应用场景中取得了较好成绩。

比如,展锐(UNISOC)的虎贲T710芯片搭载了2NX,在诸多AI评测中名列前茅,目前已落地于海信F50 5G智能手机、酷派X10 5G手机等;3NX相比2NX,在架构上有很大改良,其功耗、性能、PPA、灵活性均有提升,目前已应用在展锐的T7520芯片里。

相比之下,Series4 NNA IP是一款“Next Level”的产品,适用于更加广阔的场景。

三代产品形成矩阵,可提供不同层次的算力支持。“算力需求大的客户可选择多核心的4NX产品,对算力需求在10T以下的客户可选择3NX解决方案。”Andrew说。

同时,Andrew Grant称:“我们期待能将其(4NX产品)推广到云计算中心、移动边缘计算(MEC)、桌面、安防摄像头、工业自动化等应用领域。中国是一个非常大的市场,有许多芯片公司,我们期待能与这些公司一起有所作为,助力车载、数据中心等应用场景实现提升。”

04

结语:自动驾驶应用蓝海下,车载AI芯片IP迎来利好

5G、AI……一波波浪潮奔涌下,自动驾驶、远程医疗等应用逐渐从传说变为现实,这一过程中,Imagination等先进技术玩家,承担着助推产业浪潮奔涌的角色。

今年三月份,工信部网站公示《汽车驾驶自动化分级》推荐性国家标准报批稿。若该标准正式实施,将是我国第一份自动驾驶分级标准。这意味着国内自动驾驶发展将迎来政策性引导与保障。业内人士称,新的分级标准给行业带来利好,车联网路网基建有望加速,将带来十万亿级别的投资机会。

这一十万亿市场蓝海中,车载AI芯片IP无疑成为一大重要组成部分。

自动驾驶解决方案中,应对数以百计的复杂场景、处理大量的传感器数据、实现自动代客泊车等各类复杂功能,对车载AI芯片应用提出更高要求。 对此,Imagination最新发布的神经网络加速器IP在算力、降低延迟、提升能效等方面具备优势,或能助推自动驾驶应用快速落地。 有关Series4 NNA的更多信息, 请识别下方二维码观看 Imagination的主题会议。

原文标题:600 TOPS超高算力,2~8核灵活配置!Imagination新发布神经网络加速器IP

文章出处:【微信公众号:Imagination Tech】欢迎添加关注!文章转载请注明出处。

责任编辑:haq

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4762

    浏览量

    100521
  • AI
    AI
    +关注

    关注

    87

    文章

    30084

    浏览量

    268348
  • 自动驾驶
    +关注

    关注

    783

    文章

    13674

    浏览量

    166104

原文标题:600 TOPS超高算力,2~8核灵活配置!Imagination新发布神经网络加速器IP

文章出处:【微信号:Imgtec,微信公众号:Imagination Tech】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    什么是神经网络加速器?它有哪些特点?

    神经网络加速器种专门设计用于提高神经网络计算效率的硬件设备。随着深度学习技术的快速发展和广泛应用,神经网络模型的复杂度和计算量急剧增加,
    的头像 发表于 07-11 10:40 418次阅读

    BP神经网络和人工神经网络的区别

    BP神经网络和人工神经网络(Artificial Neural Networks,简称ANNs)之间的关系与区别,是神经网络领域中个基础且重要的话题。本文将从定义、结构、算法、应用及
    的头像 发表于 07-10 15:20 810次阅读

    rnn是递归神经网络还是循环神经网络

    RNN(Recurrent Neural Network)是循环神经网络,而非递归神经网络。循环神经网络种具有时间序列特性的神经网络,能
    的头像 发表于 07-05 09:52 489次阅读

    递归神经网络与循环神经网络样吗

    神经网络种基于树结构的神经网络模型,它通过递归地将输入数据分解为更小的子问题来处理序列数据。RvNN的核心思想是将复杂的序列问题
    的头像 发表于 07-05 09:28 683次阅读

    递归神经网络是循环神经网络

    递归神经网络(Recurrent Neural Network,简称RNN)和循环神经网络(Recurrent Neural Network,简称RNN)实际上是同个概念,只是不同的翻译方式
    的头像 发表于 07-04 14:54 625次阅读

    循环神经网络和卷积神经网络的区别

    结构。它们在处理不同类型的数据和解决不同问题时具有各自的优势和特点。本文将从多个方面比较循环神经网络和卷积神经网络的区别。 基本概念 循环神经网络种具有循环连接的
    的头像 发表于 07-04 14:24 1105次阅读

    反向传播神经网络和bp神经网络的区别

    反向传播神经网络(Backpropagation Neural Network,简称BP神经网络)是种多层前馈神经网络,它通过反向传播算法来调整
    的头像 发表于 07-03 11:00 663次阅读

    卷积神经网络的实现原理

    、训练过程以及应用场景。 卷积神经网络的基本原理 1.1 卷积操作 卷积神经网络的核心是卷积操作。卷积操作是种数学运算,用于提取输入数据的特征。在图像处理中,卷积操作通常用于提取图像的局部特征,如边缘、纹理等。 假设输入数据为
    的头像 发表于 07-03 10:49 489次阅读

    bp神经网络和卷积神经网络区别是什么

    结构、原理、应用场景等方面都存在定的差异。以下是对这两种神经网络的比较: 基本结构 BP神经网络种多层前馈神经网络,由输入层、隐藏层和
    的头像 发表于 07-03 10:12 994次阅读

    卷积神经网络的基本原理和应用范围

    和应用范围。 、卷积神经网络的基本原理 1. 卷积层(Convolutional Layer) 卷积层是CNN的核心组成部分,其主要功能是提取图像中的局部特征。卷积层由多个卷积(或滤波
    的头像 发表于 07-02 15:30 892次阅读

    卷积神经网络和bp神经网络的区别

    不同的神经网络模型,它们在结构、原理、应用等方面都存在定的差异。本文将从多个方面对这两种神经网络进行详细的比较和分析。 引言 神经网络
    的头像 发表于 07-02 14:24 2797次阅读

    西门子推出Catapult AI NN:重塑神经网络加速器设计的未来

    的需求,西门子数字化工业软件日前推出了款名为Catapult AI NN的创新软件,旨在帮助神经网络加速器在专用集成电路(ASIC)和芯片级系统(SoC)上实现更高效的高层次综合(HLS)。
    的头像 发表于 06-19 16:40 662次阅读

    西门子推出Catapult AI NN软件,赋能神经网络加速器设计

    西门子数字化工业软件近日发布了Catapult AI NN软件,这款软件在神经网络加速器设计领域迈出了重要步。Catapult AI NN软件专注于在专用集成电路(ASIC)和芯片级
    的头像 发表于 06-19 11:27 812次阅读

    Arm发布新一代Ethos-U AI加速器 Arm旨在瞄准国产CPU市场

    Arm发布新一代Ethos-U AI加速器确实在业界引起了广泛关注。
    的头像 发表于 04-18 15:59 715次阅读

    NVIDIA将在今年第二季度发布Blackwell架构的新一代GPU加速器“B100”

    根据各方信息和路线图,NVIDIA预计会在今年第二季度发布Blackwell架构的新一代GPU加速器“B100”。
    的头像 发表于 03-04 09:33 1246次阅读
    NVIDIA将在今年第二季度<b class='flag-5'>发布</b>Blackwell架构的<b class='flag-5'>新一代</b>GPU<b class='flag-5'>加速器</b>“B100”