0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

巨头们的人工智能芯片研发得怎么样了

0BFC_eet_china 来源:未知 作者:邓佳佳 2018-03-04 16:31 次阅读

前言

根据百度(Baidu)深度学习(deep learning)资深研究人员针对最新加速器进行的测试结果显示,现有的加速器芯片和软件仍然存在一些美中不足之处,应该尽快迎头赶上。

这些结果有一部份来自于使用DeepBench测试。DeepBench是使用32位浮点数学训练神经网络的开放来源基准。号称“中国Google”的百度于2016年9月发布DeepBench,并在去年6月进行了更新,使其涵盖推论工作以及使用16位数学运算。

DeepBench利用神经网络库测试不同硬件的基本运算效能(来源:Baidu)

百度硅谷人工智能实验室(Silicon Valley AI Lab)资深研究员Greg Daimos解释。在一些像矩阵乘法这样的底层作业中,具有专用硬件的芯片(例如Nvidia Volta GPU的张量核心)能够提供“数百TeraFlops (每秒1兆次浮点运算)。..比前一代的5-10TFLOPS更快几个数量级。”

然而,他说:“在实际应用中所使用的一些底层作业并没有足够的(数据)区域性,让这些专用处理器充份发挥效能,所以我们必须为其适度地加速,或者改变算法。”

百度研究小组目前正探索两种方式使用新芯片获得更大回报。一方面,研究人员在其算法中开启控制功能,以便同时接收馈入数据,期望能提高10倍的资料平行性。

另一条途径是让所有的模型看起来更像一般用于成像应用的卷积神经网络(CNN)。Daimos说,CNN比一般用于文本或音频应用(app)等循序数据的递归神经网络(RNN)具有更多区域性。

研究人员在从文本产生音频的百度模型中,“以CNN层取代RNN层堆栈”,使得“运算密度提高了40倍”,从而带来了更好的新硬件利用率。他强调,“我们必须透过编写的所有应用程序来检视是否可以普遍使用这种方法,或只是将其用于语音合成。”

目前尚不清楚这两种方法的研究成果何时可用于生产系统。同时,Daimos也分享了硬件测试的其它观察结果。

编程、内存与灵活性

虽然百度取得将近90%的Nvidia Volta最佳利用率,但编程GPU并非易事。Diamos说,该芯片“有着成千上万个线程,你必须在一个问题上进行协调和同步。..。..编写这样的程序代码并不容易,而当面对的是像张量核心这样的对象时就更困难了。”

的确,Diamos表示,“让这些任务变得更易于编程,正是我们面临的最大挑战。....而其中最大的问题就出在内存。我们想要执行更大的神经网络,但内存比预期地更快耗尽,这并不是透过打造更好的处理器就能解决的问题。”

他补充说,该问题的一部份答案在于寻找能与新兴内存搭配作业的技术,例如许多最新加速器所使用的高带宽内存(HBM)芯片堆栈等。

在百度的测试中,英特尔Intel)多核心x86处理器Xeon Phi的利用率甚至高于Nvidia Volta。然而,英特尔的芯片还没有任何张量专用核心,因此该芯片在神经网络作业上的性能不若Volta。

Nvidia Volta配备640个Tensor核心,每秒提供超过100TFLOPS的深度学习效能(来源:Nvidia)

直接进行比较并不容易,因为不同的芯片通常使用不同的运算格式。例如,Xeon Phi采用定点数学,而Volta则混合使用16位和32位浮点运算。

Diamos说:“英特尔芯片的测试结果显示,对于一些CNN来说,定点数学运算没问题。然而Nvidia发布的结果显示在影像和语音应用上表现良好,所以我们取得了一些数据,但还需要进行更多研究。”

他称赞AMD最新的GPU及其新的机器学习开放软件是正确的发展方向,但指出他们也缺乏张量核心。他表示,对于英特尔Nirvana和Graphcore Colossus等芯片“没啥可分享的消息”,也许是因为百度可能还在测试其预先发布的样片。

拥有大量的矩阵乘法单元通常是一件好事。但是,Volta、Nervana和Colossus处理器则以充满矩阵乘法数组的芯片将其性能指针推进到或接近其工艺节点所能实现的极限。

他说:“最终你的收益会递减。..。..让你不得不放弃灵活度,以便为更多不同的工作负载进行更精密的运算。因此,我们应该找到曲线的转折点,让芯片不仅在CNN上运作良好,在其它方面也表现出色。”

神经网络软件架构各执一端

除了底层数学之外,加速器还可能缺少优化,因为它们并不完全了解深度学习应用的所有范围。

当今用于设计神经网络的竞争软件架构各执一端,可能会让情况变得复杂。遗憾的是,跨不同架构建立标准规格的努力也是各自为政,Diamos指出他的团队注意到目前有11种开发中规格分别处于不同的完善阶段。

他说,由Facebook和微软(Microsoft)发起的开放神经网络交换格式(ONNX)“正朝着正确的方向发展,但仍缺乏一些像是如何表达控制流程和反向传播的特性。”

最近有20多家厂商(主要是半导体供应商)宣布了神经网络交换格式(Neural Network Exchange Format),他们认为该格式对芯片厂商来说更好。Diamos说:“要搞清这些格式中是否有些能成功实施可能还为时过早,但我们正踏上一条更好的发展道路,确实也需要其中某一种规格胜出。”

他补充说:“在2014年,我当时认为未来将会看到人工智能(AI)架构的融合,就像如今在绘图API中所看到的,但人们仍然在发明新的神经网络类型,有时还会创造新的原型,所以它可能会像编程语言的多样性一样不断地与时俱进。”

也就是说,Daimos仍然看好深度学习。在今年稍早时,他的团队发表研究指出,这一领域尚未成熟,预计接下来将会看到更多的突破。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 人工智能
    +关注

    关注

    1792

    文章

    47354

    浏览量

    238814
  • 人工智能芯片

    关注

    1

    文章

    120

    浏览量

    29115

原文标题:巨头们的人工智能芯片研发得怎么样了?

文章出处:【微信号:eet-china,微信公众号:电子工程专辑】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    苹果或与博通携手研发人工智能芯片

    据消息人士透露,苹果公司正在与博通公司携手研发一款人工智能芯片,并计划于2026年启动生产。苹果的高级机器学习和人工智能总监Benoit Dupin最近表示,该公司正在考虑使用亚马逊最
    的头像 发表于 12-12 14:01 190次阅读

    嵌入式和人工智能究竟是什么关系?

    领域,如工业控制、智能家居、医疗设备等。 人工智能是计算机科学的一个分支,它研究如何使计算机具备像人类一思考、学习、推理和决策的能力。人工智能的发展历程可以追溯到上世纪50年代,经
    发表于 11-14 16:39

    《AI for Science:人工智能驱动科学创新》第6章人AI与能源科学读后感

    探讨了人工智能如何通过技术创新推动能源科学的进步,为未来的可持续发展提供强大的支持。 首先,书中通过深入浅出的语言,介绍人工智能在能源领域的基本概念和技术原理。这使得我对
    发表于 10-14 09:27

    AI for Science:人工智能驱动科学创新》第4章-AI与生命科学读后感

    研究的进程。从蛋白质结构预测到基因测序与编辑,再到药物研发人工智能技术在生命科学的各个层面都发挥着重要作用。特别是像AlphaFold这样的工具,成功解决困扰生物学界半个多世纪的蛋白质折叠问题,将
    发表于 10-14 09:21

    《AI for Science:人工智能驱动科学创新》第一章人工智能驱动的科学创新学习心得

    的效率,还为科学研究提供前所未有的洞察力和精确度。例如,在生物学领域,AI能够帮助科学家快速识别基因序列中的关键变异,加速新药研发进程。 2. 跨学科融合的新范式 书中强调,人工智能的应用促进了多个
    发表于 10-14 09:12

    risc-v在人工智能图像处理应用前景分析

    和使用该技术,无需支付专利费或使用费。这大大降低了人工智能图像处理技术的研发成本,并吸引大量的开发者、企业和研究机构参与其生态建设。 灵活性则体现在RISC-V可以根据不同的应用场景进行定制和优化,从而
    发表于 09-28 11:00

    名单公布!【书籍评测活动NO.44】AI for Science:人工智能驱动科学创新

    材料基因组工程的推动下,人工智能如何与材料科学结合,加快传统材料和新型材料的开发过程。 第4章介绍人工智能在加快药物研发、辅助基因研究方面及在合成生物学中的普遍应用。 第5章介绍
    发表于 09-09 13:54

    人工智能如何改变着各行各样

    人工智能的风起云涌,几乎颠覆千行百业创新的节奏,今天的人工智能就如同挥舞着“指挥棒”一,改变着各行各样本来的“模样”。
    的头像 发表于 07-19 10:58 504次阅读
    <b class='flag-5'>人工智能</b>如何改变着各行各样

    东土科技自主研发的人工智能交通服务器实现规模化应用

    智能交通领域,一场由东土科技引领的技术革新正悄然改变着城市交通的面貌。近日,东土科技自主研发的人工智能交通服务器在北京城市副中心通州区成功实现580处交通路口的规模化应用,标志着我
    的头像 发表于 07-17 15:42 456次阅读

    Python中的人工智能框架与实例

    人工智能(AI)领域,Python因其简洁的语法、丰富的库和强大的社区支持,成为了最受欢迎的编程语言之一。本文将详细介绍Python中的人工智能框架,并通过具体实例展示如何使用这些框架来实现不同的人工智能应用。
    的头像 发表于 07-15 14:54 1748次阅读

    Google开发专为视频生成配乐的人工智能技术

    近日,科技巨头Google旗下的人工智能研究实验室DeepMind宣布一项引人注目的技术突破——V2A技术(Video to Audio),这是一项专为视频生成配乐的人工智能技术。这
    的头像 发表于 06-20 11:03 513次阅读

    三星牵头对人工智能芯片公司Tenstorrent进行投资

    近日,据外媒报道,科技巨头三星牵头对多伦多的人工智能芯片公司Tenstorrent进行了一轮大规模的投资。据悉,此轮融资规模至少达到3亿美元,进一步巩固Tenstorrent在
    的头像 发表于 06-17 18:22 789次阅读

    5G智能物联网课程之Aidlux下人工智能开发(SC171开发套件V2)

    人工智能 工业检测:芯片模组外观检测实训part1 11分40秒 https://t.elecfans.com/v/25609.html *附件:芯片模组外观检测实训.pdf 人工智能
    发表于 05-10 16:46

    5G智能物联网课程之Aidlux下人工智能开发(SC171开发套件V1)

    https://t.elecfans.com/v/27186.html *附件:引体向上测试案例_20240126.pdf 人工智能 工业检测:芯片模组外观检测实训part1 11分40秒 https
    发表于 04-01 10:40

    嵌入式人工智能的就业方向有哪些?

    。 国内外科技巨头纷纷争先入局,在微软、谷歌、苹果、脸书等积极布局人工智能的同时,国内的BAT、华为、小米等科技公司也相继切入到嵌入式人工智能的赛道。那么嵌入式AI可就业的方向有哪些呢? 嵌入式AI开发
    发表于 02-26 10:17