自英特尔1971年推出全球第一个微处理器以来,计算能力一直以令人惊叹的步伐发展演进着。根据摩尔定律,当前的计算机芯片比50年前的芯片在功能上强大数百万倍。
尽管数十年来处理能力飞速增长,但直到现在,计算机芯片的基本体系结构仍然没有太大改变。很大程度上说,芯片的创新,需要进一步缩小晶体管的体积,让集成电路可以容纳更多晶体管。数十年来,英特尔和AMD等厂商通过提高CPU性能而取得了长足的发展,被Clayton Christensen视为“持续的创新”。
今天,这种情况正在发生着巨大的变化。人工智能(AI)引发了半导体创新的“新黄金时代”——机器学习带来独特的市场需求和无限的机会,第一次激发了企业家们,去重新思考芯片架构的基本原则。
他们的目标,是设计一种专为AI设计的新型芯片,为下一代计算提供动力,这也是当前所有硬件领域最大的市场机遇之一。
新的计算范式
在计算技术发展的历史中,主流的芯片架构一直是CPU。如今,CPU无处不在,它为笔记本电脑、移动设备和大多数数据中心提供动力。
1945年,传奇人物约翰·冯·诺伊曼(John von Neumann)构思了CPU的基本架构。值得注意的是,此后他的这一设计基本没有太大变化,今天,大多数计算机仍是基于冯·诺依曼理论的机器。
CPU的灵活性使得它有各种各样的用途:CPU是通用的,能够有效执行软件所需的任何计算。不过尽管CPU的主要优势是多功能性,然而如今领先的AI技术需要的,是一种非常特殊且密集的计算。
深度学习需要迭代执行数百万甚至是数十亿个相对简单的乘法和加法步骤。深度学习以线性代数为基础,在根本上是基于试错法的:对参数进行调整,对矩阵进行乘法运算,随着模型自身的不断优化,在整个神经网络中反复进行数字求和。
这种重复性的、计算量巨大的工作流程,对于硬件体系结构有很重要的要求。「并行化」变得至关重要,「并行」指的是:处理器能够同时、而不是一个接一个地执行多个计算的能力。与之紧密相关的是,深度学习涉及大量数据的连续转换,因此让芯片内存和计算核心尽可能靠近数据所在的位置,可以减少数据移动,从而大幅提升速度和效率。
CPU尚不足以支持机器学习的独特需求。CPU是按顺序而非并行地处理计算任务,CPU的计算核心和内存通常位于单独的模块上,通过带宽受限的通信系统(总线)进行连接。这就造成了数据移动的瓶颈,称为“冯·诺依曼瓶颈”,导致的结果就是,在CPU上训练神经网络的效率非常低。
随着机器学习正在日益普及,传统芯片已经无法应对现代AI算法的要求,这一点正变得愈加突出。正如AI专家Yann LeCun最近所说的:“如果你能穿越到未来五年或者十年,看看计算机大部分时间都在做些什么的话,我认为很可能是机器学习之类的事情。”
这时候,就需要GPU来推动AI的繁荣发展了。GPU架构是由英伟达(Nvidia)在1990年代后期为游戏应用开发的。当时GPU被专门用于连续处理大量数据,以高帧速率渲染计算机游戏画面。与CPU不同的是,GPU可以并行地运行数千个计算任务。
在2010年代初,AI领域开始意识到,Nvidia的游戏芯片实际上非常适合处理机器学习算法所需的工作负载,于是,GPU幸运地找到了新的目标市场。Nvidia抓住了这个机遇,将自己定位为“AI硬件市场领先提供商”,结果收获了惊人的收益——从2013年到2018年,Nvidia的市值增长了20倍。
然而,正如Gartner分析师Mark Hung所说,“大家知道GPU并非针对AI工作负载进行了优化。”虽然GPU已经被AI领域广泛采用,但它并非为AI而生。
近些年来,有一大批企业家和技术人员开始重新构想计算机芯片,从头开始对其进行优化,以释放AI的无限潜力。Alan Kay的一段话令人难忘:“真正认真对待软件的人,应该自己制造硬件。”
过去两年中,有5个芯片独角兽涌现,很多初创公司的估值令人瞠目结舌。传统CPU巨头英特尔为了避免被颠覆,所以进行了两项重大收购:2016年4月以4.08亿美元收购了Nervana Systems,2019年12月以20亿美元收购了Habana Labs。未来几年,这场竞赛将继续进行下去,争夺这个规模数千亿美元的市场。
-
人工智能
+关注
关注
1791文章
47274浏览量
238481 -
机器学习
+关注
关注
66文章
8418浏览量
132629
发布评论请先 登录
相关推荐
评论