随着传统市场走向下坡路和摩尔定律的逐渐失效,半导体行业正在不断革新,力求了解人工智能、自动驾驶汽车、物联网等新市场的需求。
而其中最奇特的也许当属人工智能,因为它的计算范式与传统的“处理器-内存”方法有着明显差异。在近期于旧金山举办的国际电子器件大会上,法国研究员Damien Querlioz在谈及“神经形态计算的新型器件技术”时说道,“长期以来,模式识别和认知任务都是计算机的弱点,比如识别和解读图像、理解口语、自动翻译等。”
大约从2012年起,训练和推理阶段的人工智能技术开始加速发展,但当使用传统计算架构时,功耗仍是一个巨大挑战。
Querlioz是法国国家实验室CNRS的一名研究员,他举了一个活生生的例子:2016年Google的AlphaGo与围棋世界冠军李世石之间的著名围棋大战。李世石的大脑在比赛中消耗了大约20瓦,而AlphaGo估计需要超过250,000瓦才能使其CPU和GPU保持运转。
虽然从那以后Google和其他公司均在功耗方面做出了改进,但越来越多的工作开始侧重于为神经形态计算技术设计耗电更少的新器件。
Ted Letavic是格芯的高级战略营销人员,他表示,回想人工智能的各个阶段,从改进传统计算技术,到设计耗电更少的全新器件和架构,在整个过程中,先进高效的封装将发挥关键作用。
Letavic称,“人工智能时代正在逐步到来,我们可以利用现有的技术,再加上衍生技术,通过DTCO(设计技术协同优化)进行全面优化,一直深入到位单元设计层面。”
格芯的技术人员正在努力降低14/12 nm FinFET平台的功耗并提升其性能,所采用的办法包括双功函数SRAM、更快且功耗更低的累加运算(MAC)元件、对SRAM的更高带宽访问等。基于FD-SOI的FDX处理器的功耗也将降低,尤其是在部署背栅偏置技术时。Letavic表示,设计师掌握了这些技术后,客户便可以“重新设计功耗包络更低的人工智能固有元件,甚至达到7 nm。”
除了这些DTCO改进以外,全球各地也在开展其他研发工作,希望实现基于相变存储器(PCM)、阻性RAM (ReRAM)、自选扭矩转换磁性RAM (STT-MRAM)和FeFET的嵌入式内存与内存中计算解决方案。
Querlioz在IEDM专题会议上提到,在IBM Almaden研究中心,由Jeff Welser领导开发的基于PCM的芯片已取得显著进展,而基于STT-MRAM和ReRAM的人工智能处理器也前景光明。Querlioz表示,“现在,我们极有可能成功为认知类型的任务和模式识别重新发明电子器件。”
Letavic称,降低功耗的道路还很长,对于推理处理而言尤其如此,而这正促使众多初创公司开发新的人工智能解决方案,格芯也与其中部分公司及长期合作伙伴AMD和IBM保持着密切合作关系。
Letavic认为,凭借对冯诺依曼计算模式的DTCO改进,我们只能发展到这一步。除了分类逻辑和内存,下一步是发展内存中计算和基于模拟的计算。此外,为计算行业服务了35年的指令集架构(ISA)将需要被新的软件堆栈和算法取代。他说道:“对于特定领域的计算,必须重新发明软件。IBM对软件堆栈有着深刻的见解。”
“各方都必须一同转向人工智能。格芯将与主要客户紧密合作,我们不能将算法与技术分开,”Letavic在谈及该系统技术协同优化(STCO)方面的紧密合作时说道,“随着我们迈入计算发展的第四个时代,STCO将是DTCO的自然延伸。我们将朝着特定领域的计算发展,共同迎接这一转变。”
-
人工智能
+关注
关注
1791文章
47279浏览量
238516 -
架构
+关注
关注
1文章
514浏览量
25472
发布评论请先 登录
相关推荐
评论