0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

ARM发布最新Compute Library

pmkA_arm_china 来源:互联网 作者:佚名 2017-10-09 13:56 次阅读

开心了这么多天,该“收心”好好干活了,正好Arm有一个好消息要告诉大家,最新一季的Compute Library公开发行版(版本 17.9)现已推出,让我们一起来看看重点新增的一些特性和函数吧。

新的特性

此发行版主要增添了以下特性:

  • 多个新的面向 Arm CPU 和 Mali GPU机器学习函数

  • 支持新的数据类型和精度(重点支持低精度数据类型)

  • 支持利用 Arm-v8.2 CPU 架构的新指令实现 FP16 加速

  • 针对关键的机器学习函数进行微架构优化

  • 降低复杂网络内存开销的内存管理工具

  • 用于基本测试的基础结构框架

新的函数

我们添加了许多新的函数,满足以 Arm 型平台为目标的开发人员的需求。这些新例程采用 OpenCL C 和 C(利用NEONIntrinsics)编写。

OpenCL C(针对Mali GPU):

  • Bounded ReLu

  • Depth wise卷积(在 mobileNet 中使用)

  • 反量化

  • Direct卷积 1x1

  • Direct卷积 3x3

  • Direct卷积 5x5

  • 3D 张量展平

  • 向下取整

  • 全局池化(在 SqueezeNet 中使用)

  • Leaky ReLu

  • 量化

  • Reduction 运算

  • ROI 池化

CPU (NEON):

  • Bounded ReLu

  • Direct卷积 5x5

  • 反量化

  • 向下取整

  • Leaky ReLu

  • 量化

  • 具有定点加速的新函数

Direct卷积是在经典滑动窗口基础上执行卷积层的一种替代方法。在Mali GPU Bifrost 架构的实现中,使用Direct卷积对于改进我们 CNN 的性能很有帮助(我们观察到,对 AlexNet 使用Direct卷积时性能最多可提升 1.5 倍)。

支持低精度

在许多机器学习应用场景中,可以通过降低计算精度来提升效率和性能。这是我们工程师上一季度的重点关注领域。我们利用低精度实施了现有函数的新版本,如 8 位和 16 位定点,这同时适用于 CPU 和 GPU。

GPU (OpenCL) - 8 位定点

  • Direct卷积 1x1

  • Direct卷积 3x3

  • Direct卷积 5x5

GPU (OpenCL) - 16 位定点

  • 算术加法、减法和乘法

  • 深度转换

  • 深度连接(concatenate)

  • 深度卷积

  • GEMM

  • 卷积层

  • 全连接层

  • 池化层

  • Softmax 层

NEON - 16 位定点

  • 算术加法、减法和乘法

  • 卷积层

  • 深度连接(concatenate)

  • 深度转换

  • Direct卷积 1x1

  • 全连接层

  • GEMM

  • Softmax 层

微架构优化

在 Compute Library 项目启动之初,我们的宗旨主要是共享计算机视觉和机器学习的一整套底层函数,要保障性能良好,最为重要的是要可靠且可移植。Compute Library 能够为着眼于 Arm 处理器的开发人员和合作伙伴节省时间和成本;同时,Compute Library 在我们合作伙伴实施的许多系统配置中也有出色的表现。这也是我们将NEONintrinsic和 OpenCL C 作为目标语言的原因。但在某些情形中,必须要充分发挥硬件的所有性能。因此,我们也着眼于在 Compute Library 中增加底层原语,这些底层原语利用专为目标 CPU 微架构定制的手工汇编进行了优化。

在决定我们应将重点放在哪些函数时,我们的研发团队研究了利用 Caffe 框架的机器学习工作负载。

所用的三种工作负载为:

  • AlexNet,将图像目标分类到1000个可能类别的 大型网络

  • LeNet,将手写数字分类到10个可能类别的 中型网络

  • ConvNet,将图像分类到10个可能类别的 小型网络

下图显示了这些工作负载的指令使用情况:

我们的团队发现,这些网络大约有 50-80% 的计算在 SGEMM 函数内发生,这个函数是将两个浮点矩阵相乘。还有其他几个函数也比较突出,例如幂函数和转换矩阵维度的函数。其余的计算则分散在一个长尾分布中。

您可以发现这样的一个趋势,SGEMM 所占的比例随着网络规模变大而升高,但这种趋势更有可能是因为层的配置所致,而不是与大小相关。从中我们可以意识到,矩阵乘法对神经网络确实非常重要。如果说哪个目标函数最需要优化,应该就是它了。

在此发行版的库中,我们增加了面向Cortex-A53和Cortex-A72处理器的 CPU 汇编优化版 SGEMM (FP32)。这些例程的性能视平台而异,但我们在测试中看到总体性能有大幅提升。例如,我们对 Firefly 开发板(64 位,多线程)进行了 AlexNet 基准测试,在 Cortex-A72 上测量到性能提升了约 1.6 倍。

下表显示了我们在相同平台上使用新的优化例程的一组基准测试结果。

在 Armv8.2 CPU 上支持 FP16

在关于17.6 发行版的介绍中(Arm计算库第二个公开版本正式发布,这些厂商一直在用其进行开发!),Arm计划在 CPU 中支持用于机器学习的新架构功能,而第一步就是在 Armv8.2 CPU 中支持 FP16。目前,库中增加了面向 Armv8.2 FP16 的新函数:

  • 激活层

  • 算术加法、减法和乘法

  • 批量归一化(Batch Normalization)

  • 卷积层(基于 GEMM)

  • 卷积层(Direct卷积)

  • 局部连接

  • 归一化

  • 池化层

  • Softmax 层

虽然我们没有对这些函数做一些激进的优化(这些函数采用 NEON intrinsic而非手工优化的汇编语言编写),但与使用 FP32 且必须在不同格式之间转换相比,性能有了大幅提升。下表比较了一些工作负载,从中可以看出,借助 v8.2 CPU 指令,可以减少计算所需的周期数。

面向 Bifrost 架构的 GPU 优化

如今,许多移动合作伙伴正在利用 Mali GPU 来加快机器学习工作负载的速度。根据这些合作伙伴的反馈,我们在这个领域做了针对性的优化。

新的Direct卷积 3x3 和 5x5 函数针对 Bifrost 架构进行了优化,性能与上一发行版 (17.06) 中的例程相比有了显著提升。在部分测试平台上使用这些新例程时,我们发现性能普遍提高约 2.5 倍。此外,在 AlexNet 的多批量工作负载中,GEMM 中引入的新优化帮助我们获得了 3.5 倍的性能提升。性能因平台和实现方法而异,但总体而言,我们预计这些优化能够在 Bifrost GPU 上显著提升性能。

下图显示了在华为 Mate 9 智能手机上的一些测试结果,测试中禁用了 DVFS,取 10 次运行中最短的执行时间作为结果。由此可见,新例程在性能上优于旧版本。

内存管理器

复杂工作负载(大型网络)会需要大量内存,对于嵌入式平台和移动平台而言,这正是影响性能的症结所在。我们听取了合作伙伴的反馈,决定在库的运行时组件中添加一个“内存管理器”功能。内存管理器通过循环利用临时缓冲区降低通用算法/模型的内存要求。

内存管理器包含一个生命周期管理器(用于跟踪注册对象的生命周期)和一个池管理器(用于管理内存池)。当开发人员配置函数时,运行时组件会跟踪内存要求。例如,一些张量可能仅仅是暂时的,所以只分配所需的内存。内存管理器的配置应从单一线程循序执行,以便提高内存利用率。

下表显示了在使用内存管理器时在我们测试平台上测量到的内存节省情况。结果因平台、工作负载和配置而异。总体而言,我们认为内存管理器能够帮助开发人员节省内存。

接下来,我们计划继续根据合作伙伴和开发人员的需求,进行具体的优化。此外,我们还将重视与机器学习框架的集成,并与 Google Android NN 等新的 API 保持同步。

我们的目标不是涵盖所有数据类型和函数,而是根据开发人员和合作伙伴的反馈,精选出最需要实施的函数。所以,我们期待着听到您的声音!

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • ARM
    ARM
    +关注

    关注

    134

    文章

    9040

    浏览量

    366725

原文标题:节后第一个好消息就它了——Compute Library 17.9 正式发布!

文章出处:【微信号:arm_china,微信公众号:Arm芯闻】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    W5500 ARM mbed 库发布

    本帖最后由 Katrina_WIZnet 于 2014-6-24 15:40 编辑 WIZnet 是 ARM mbed(http://mbed.org/teams/WIZnet/)的官方
    发表于 06-24 15:39

    PRI Compute Module – 树莓派的继任者

    问题,树莓派基金会又发布了一块新的板卡 - “Compute Module”(以下简称Compute)。Compute是一块长得像小型SODIMM内存条的电路板,尺寸大概是树莓派的四分
    发表于 09-30 13:21

    请问C2000支持IEC60730的library发布了吗?

    想问一下,28035支持IEC60730, class B 的library 发布了吗?最新的library是不是集成在ROM中?
    发表于 08-19 07:05

    使用CRL“ARM CMSIS SIN COS”和SW4STM32发布构建simulink项目代码报错怎么解决?

    /arm_cos_f32.o" "C:/MATLAB/STM32-MAT/STM32/STM32demos/MotorControl/FOC/PMSM_FOC_Compute
    发表于 01-16 07:32

    VHDL Library of Arithmetic Uni

    VHDL Library of Arithmetic Units A comprehensive library of arithmetic units written
    发表于 06-14 09:08 26次下载

    VHDL Library of Arithmetic Uni

    VHDL Library of Arithmetic Units fdl A comprehensive library of arithmetic units written
    发表于 06-14 09:09 17次下载

    ADS_FSL_LIBRARY

    ADS_FSL_LIBRARY
    发表于 09-13 10:41 0次下载

    FX3 Wrapper Library

    FX3 Wrapper Library
    发表于 01-29 11:55 6次下载
    FX3 Wrapper <b class='flag-5'>Library</b>

    ADM1266 Python Library

    ADM1266 Python Library
    发表于 02-02 10:40 1次下载
    ADM1266 Python <b class='flag-5'>Library</b>

    ADM1266 Python Library

    ADM1266 Python Library
    发表于 03-05 11:16 10次下载
    ADM1266 Python <b class='flag-5'>Library</b>

    使用新的Nsight Compute改进导航和性能可视化

      源页面上的度量分组和选择选项有改进,使其更易于使用。此外,此版本还增加了对在基于 ARM SBSA 和 L4T 的平台上运行 Nsight Compute 用户界面的支持,用户无需远程连接或单独的主机即可进行配置。
    的头像 发表于 06-21 14:54 2979次阅读
    使用新的Nsight <b class='flag-5'>Compute</b>改进导航和性能可视化

    ARM系列—机密计算

    今天来看一个ARM中的新东西,机密计算架构(Confidential Compute Architecture,CCA)。CCA是ARM公司在2021年发布的,属于Armv9-A的关键
    发表于 05-24 15:25 1372次阅读
    <b class='flag-5'>ARM</b>系列—机密计算

    Arm RAN 加速库(RAN Acceleration Library, RAL)通过采用 BSD 开源许可证将代码库正式开源

    Arm RAN 加速库(RAN Acceleration Library, RAL)通过采用 BSD 开源许可证将代码库正式开源 作为 RAN 软件中最重要的模块,Arm RAN 加速库(RAN
    的头像 发表于 07-20 17:31 1742次阅读

    爱立信新一代RAN Compute在网络处理能力方面取得重大突破

    爱立信于今日发布了爱立信RAN Compute产品组合中的最新一代处理器 ,旨在帮助运营商(CSP)充分受益于当前与未来的无线接入技术演进。这些迄今为止最先进的RAN Compute产品采用了爱立信
    的头像 发表于 11-15 00:55 651次阅读
    爱立信新一代RAN <b class='flag-5'>Compute</b>在网络处理能力方面取得重大突破

    RL78系列 Data Flash Library Type04软件包3.0版发布说明

    电子发烧友网站提供《RL78系列 Data Flash Library Type04软件包3.0版发布说明.pdf》资料免费下载
    发表于 02-19 10:06 0次下载
    RL78系列 Data Flash <b class='flag-5'>Library</b> Type04软件包3.0版<b class='flag-5'>发布</b>说明