ARm发布了两款针对移动终端的AI芯片架构,物体检测(Object Detection,简称OD)处理器和机器学习(Machine Learning,简称ML)处理器。
以往,ARM都是架构准备好了,才发公告。这次一反常态,没货却先发公告:OD处理器,计划在第一季度才能提供给合作伙伴;ML处理器得等到年中,这也看出了ARM很焦急。
毕竟在过去的几个月中,尤其是在移动端圈子里,机器学习在半导体行业中很热。
好几家提供芯片架构的公司都宣布了提供消费者解决方案,连华为都开始自主研发架构了。那么多玩家入场,ARM却没啥动作。
直到现在,ARM才把重点放在了Armv8.2的cpuISA扩展上,该扩展借助半精度浮点和整数点产品来简化和加速神经网络的专用指令。
除了CPU的改进之外,还看到了G72中机器学习的gpu改进。虽然这两项改进都有所帮助,但想要最大性能和效率,这些改进还不够。
在测试Kirin 970的NPU和Qualcomm的DsP时,可以看出,专用架构上运行推理的效率,比在CPU上运行的效率高出一个数量级以上。
正如ARM官方解释的那样,Armv8.2和GPU的改进只是建立机器学习解决方案的第一步,还必须研究对专用解决方案的需求。
ARM也从合作的小伙伴那里感受到了行业的压力,才熬出来ML处理器。
下面简单介绍一下这次发布的两个新的架构:机器学习ML处理器以及OD处理器。
ML处理器,是专门为加速神经网络模型推理所设计的。这种架构比传统的CPU和GPU架构有明显的优势。
在执行机器学习任务时,这款ML处理器可为数据优化内存管理。
这款处理器具有数据可高度重复使用的特点,能最大限度地减少数据的输入和输出,从而实现高性能和高效率。
ML处理器,理论上可在1.5W功率下,有超过4.6TOPs(8位整数)的理论吞吐量,最高可达3TOPs / W。
虽然TOPs值并不能完全体现处理器的性能,不过它对于行业标准化仍然有用。
作为一个完全独立的独立IP(电路功能)模块,ML处理器具有自己的ACE-Lite接口,可集成到SoC中,也可以集成到DynaMIQ中。
此外,ARM没有透露ML处理器更多的架构信息。
OD处理器,是针对物体检测的任务进行了优化。尽管ML处理器也能完成相同的任务,但OD处理器可以更快。给单项任务提供专用架构,才能够获得最大效率。
ARM也考虑到了可能会出现OD和ML处理器集成在一起用的情况:OD处理器负责把图像中的目标处理区分割出来,然后把它们传递给ML处理器,进行更细颗粒度的处理。
ARM还提供大量软件,帮助开发人员将他们的神经网络模型应用到不同的NN框架中。从今天开始,这些软件大家可以在ARM开发者网站找到,同时也在Github上提供。
考虑到SoC开发的周期,基于新架构的芯片大概得在2019年年中或年末才能发布。ARM这次,可以说半导体及架构供应商中响应AI趋势比较慢的企业了。
-
ARM
+关注
关注
134文章
9081浏览量
367307 -
华为
+关注
关注
216文章
34397浏览量
251430
原文标题:【Computex快讯】Arm发表移动迭代芯架构:尚未确定与华为是否“全面停止合作”
文章出处:【微信号:DIGITIMES,微信公众号:DIGITIMES】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论