0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

摩尔定律的顶点将在2028年?计算能力正式开始进步?

dKBf_eetop_1 来源:未知 作者:工程师黄明星 2018-07-30 16:32 次阅读

据SingularytyHub报道,到目前为止,我们大多数人都已经熟悉摩尔定律(Moore ‘s Law),这条著名的定律认为,计算能力的发展遵循指数曲线,每18个月左右性价比就会翻一番。然而,当涉及到将摩尔定律被应用到不同的商业策略中时,即使是远见卓识的思想家也经常受到被称为“人工智能盲点”(AI blind spot)的困扰。许多成功的、有战略头脑的商人能在自己的行业中找到捷径,但他们很难理解指数增长的真正含义,更不用说从曲线增长中获益匪浅的AI技术

人们不理解AI发展有多快的一个原因很简单,甚至可以说是可笑的:当我们试图在纸上捕捉它们时,指数曲线表现得并不好。出于实际原因考虑,几乎不可能在狭小空间(如图表或幻灯片)中完全描述指数曲线的陡峭轨迹。直观地描绘指数曲线的早期阶段是很容易的。然而,随着曲线的陡峭部分开始显现,以及数字迅速增大,事情变得更加具有挑战性。

捕捉指数曲线

为了解决这个视觉空间不足的问题,我们使用了一个简单的数学技巧,叫做对数(logarithm)。使用所谓的“对数标度”(logarithmic scale),我们学会了将指数曲线进行压缩。不幸的是,“对数标度”的广泛使用也会导致短视的结果。对数标度的工作原理是,垂直y轴上的每一个刻度并非对应一个常数增量(如典型的线性标度),而是一个倍数,例如100倍。下面的经典摩尔定律图表使用“对数标度”来描述过去120年里计算能力的成本指数增长趋势,从1900年的机械设备到今天强大的硅基GPU

摩尔定律的顶点将在2028年?计算能力正式开始进步?

▲图1:对数标度中显示过去120年间计算成本的指数变化情况

如今,对于那些意识到视觉失真的人来说,对数图已经成为非常有价值的速记形式。事实上,“对数标度”是一种简便而紧凑的方法,可以用来描述随着时间的推移以急速方式上升的任何曲线。然而,对数图却隐藏着巨大的代价:它们愚弄了人类的眼睛。通过数学上的大数字坍缩,对数图使得指数增长看起来是呈线性的。由于它们将不规则的指数增长曲线压缩成线性形状,对数图使人们很容易对未来计算能力的指数增长速度和规模感到满意,甚至产生自满。

我们的逻辑大脑理解对数图。但是,我们的潜意识却看到了一条线性曲线,并选择对其缺陷视而不见。那么,如何有效地消除由对数图引起的战略短视呢?部分解决方法是回到原来的线性尺度。在下面的图2中,我们使用数据来拟合指数曲线,然后用垂直轴上的线性刻度绘制它。同样,纵轴表示一美元可以购买的处理速度(单位为gigaflops),横轴表示时间。

然而在图2中,纵轴上的每个刻度都对应于一个简单的线性增加趋势(相当于1gigaflops,而不是像图表1那样增加100倍)。“FLOP”这个词是测量计算速度的标准方法,代表着每秒进行的浮点操作,其他单位还包括megaFLOPS、gigaFLOPS以及teraFLOPS等。

摩尔定律的顶点将在2028年?计算能力正式开始进步?

▲图2:以线性标度描述的摩尔定律

图2显示了描述摩尔定律的真实指数曲线。这张图表的绘制方式,让我们的人眼很容易理解:在过去的十年里,计算性价比发生了多么快的变化。然而,图2中同样存在严重的错误。对于这张图表的天真读者来说,似乎在20世纪的整个过程中,计算机的性价比根本没有提高。很明显,这是错误的。

图2显示,使用线性标度来证明摩尔定律随时间变化而变化时,也存在相当大的盲目性。它可以让过去显得平淡无奇,就好像直到最近才取得进展一样。此外,同样的线性标度图也会导致人们错误地认为,他们目前的优势点代表了独特的、“几乎垂直”的技术进步时期。这一点让我想到了导致AI盲点的图表出现的下一个主要原因:线性标度图表可以欺骗人们,让他们相信自己的生活正处于变化高峰期。

活在当下的短视

让我们再看下表2:从2018年的情况来看,20世纪大部分时间里每十年就会出现的性价比翻倍似乎已经平淡无奇,甚至显得无关紧要。看了表2的人可能会对自己说:“孩子,我今天活得很幸运吗?我记得2009年,当时我认为自己的新iPhone很快!但实际上我不知道它有多慢,现在我终于到达了令人兴奋的垂直部分!”

我听人说过,我们刚刚通过了“曲棍球棒的肘部”。但还没有这样的过渡点。任何指数曲线自身都是相似的,也就是说,未来曲线的形状和过去的曲线几乎没有太大变化。下面的图3再次显示了摩尔定律在线性标度图表上的指数曲线,但这次是从2028年的角度来看。这条曲线假设,我们在过去100年里经历的增长至少还将持续10年。这张图表显示,在2028年,一美元将购买大约200gigaflop的计算能力。

摩尔定律的顶点将在2028年?计算能力正式开始进步?

▲图3:线性标度图上的摩尔定律

然而,图3也代表了一个潜在的分析困境。仔细看看图3所示曲线位置,它代表了今天的计算能力(2018年)。以生活和工作在2028年的人来看,即使在21世纪初,计算能力几乎没有任何实质性改善。看起来,2018年使用的计算设备只是比1950年使用的计算机稍强。观察人士还可以得出结论,2028年是摩尔定律的顶点,那一年计算能力的进步终于开始了。

每年,我都可以重新创建图表3,只改变时间范畴的描述。曲线的形状十分相似,只有垂直刻度上的刻度会改变。请注意,除了垂直标度之外,图2和图3的形状看起来是一样的。在每个这样的图表上,从未来的角度来看,过去的每个点都是扁平的,而未来的每个点看起来都是与过去截然不同的。这种错误的看法正被引入有缺陷的商业战略中,至少在AI方面是如此。

这代表着什么?

指数式的变化速度对人类的头脑和眼睛来说都是难以理解的。指数曲线是唯一的,因为从数学角度来看,它们在每个点上都是相似的。这就意味着,曾经不断加倍的曲线没有平坦部分可言,也没有上升的部分;同样没有许多商业人士习惯于谈论的“肘”和“曲棍球棒”弯曲。即使你放大过去或未来的任何部分,它的形状看起来都是一样的。

随着摩尔定律继续发挥作用,我们不禁会想,就在此刻,我们正处于AI(或任何其他依赖摩尔定律的技术)发展的独特时期。然而,只要处理能力继续遵循指数级的性价比曲线,未来的每一代人都可能会回顾过去,认为这是个进步相对较小的时代。反过来,情况也将是这样:每一代人都将展望未来10年,却无法预测到AI还有多少进步空间。

因此,对于任何计划由计算机指数增长驱动未来的人来说,挑战在于与他们大脑中的错误解释作斗争。虽然这听起来很难,但你需要同时记住这三张图——对数图的视觉一致性、戏剧性和线性图的欺骗性尺度,这样你才能真正领会指数增长的力.量。因为过去总是显得平淡无奇,而未来将永远充满了巨变。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 摩尔定律
    +关注

    关注

    4

    文章

    630

    浏览量

    78909
  • 人工智能
    +关注

    关注

    1791

    文章

    46733

    浏览量

    237254

原文标题:揭秘:为何大多数人都错估了计算机与AI的发展

文章出处:【微信号:eetop-1,微信公众号:EETOP】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    击碎摩尔定律!英伟达和AMD将一一款新品,均提及HBM和先进封装

    增加一倍,性能也将提升一倍。过去很长一段时间,摩尔定律被认为是全球半导体产业进步的基石。如今,这一定律已经逐渐失效,延续摩尔和超越摩尔路线纷
    的头像 发表于 06-04 00:06 3956次阅读
    击碎<b class='flag-5'>摩尔定律</b>!英伟达和AMD将一<b class='flag-5'>年</b>一款新品,均提及HBM和先进封装

    奇异摩尔专用DSA加速解决方案重塑人工智能与高性能计算

    随着摩尔定律下的晶体管缩放速度放缓,单纯依靠增加晶体管密度的通用计算的边际效益不断递减,促使专用计算日益多样化,于是,针对特定计算任务的专用架构成为
    的头像 发表于 09-19 11:45 568次阅读
    奇异<b class='flag-5'>摩尔</b>专用DSA加速解决方案重塑人工智能与高性能<b class='flag-5'>计算</b>

    高算力AI芯片主张“超越摩尔”,Chiplet与先进封装技术迎百家争鸣时代

    电子发烧友网报道(文/吴子鹏)英特尔CEO基辛格此前表示,摩尔定律并没有失效,只是变慢了,节奏周期正在放缓至三。当然,摩尔定律不仅是周期从18个月变为了3,且开发先进制程成本高昂,
    的头像 发表于 09-04 01:16 3028次阅读
    高算力AI芯片主张“超越<b class='flag-5'>摩尔</b>”,Chiplet与先进封装技术迎百家争鸣时代

    “自我实现的预言”摩尔定律,如何继续引领创新

    59前,19654月19日,英特尔公司联合创始人戈登·摩尔(Gordon Moore)应邀在《电子》杂志上发表了一篇四页短文,提出了我们今天熟知的摩尔定律(Moore’s Law)
    的头像 发表于 07-05 15:02 235次阅读

    人工智能需要强大的计算能力,光芯片有帮助吗?

    光学神经网络使用光子而不是电子,比传统系统具有优势。摩尔定律已经相当快了。它认为,计算机芯片每两左右就会安装两倍数量的晶体管,从而在速度和效率上产生重大飞跃。但深度学习时代的计算需求
    的头像 发表于 05-24 08:27 657次阅读
    人工智能需要强大的<b class='flag-5'>计算</b><b class='flag-5'>能力</b>,光芯片有帮助吗?

    封装技术会成为摩尔定律的未来吗?

    你可听说过摩尔定律?在半导体这一领域,摩尔定律几乎成了预测未来的神话。这条定律,最早是由英特尔联合创始人戈登·摩尔于1965提出,简单地说
    的头像 发表于 04-19 13:55 293次阅读
    封装技术会成为<b class='flag-5'>摩尔定律</b>的未来吗?

    功能密度定律是否能替代摩尔定律摩尔定律和功能密度定律比较

    众所周知,随着IC工艺的特征尺寸向5nm、3nm迈进,摩尔定律已经要走到尽头了,那么,有什么定律能接替摩尔定律呢?
    的头像 发表于 02-21 09:46 622次阅读
    功能密度<b class='flag-5'>定律</b>是否能替代<b class='flag-5'>摩尔定律</b>?<b class='flag-5'>摩尔定律</b>和功能密度<b class='flag-5'>定律</b>比较

    摩尔定律的终结:芯片产业的下一个胜者法则是什么?

    在动态的半导体技术领域,围绕摩尔定律的持续讨论经历了显着的演变,其中最突出的是 MonolithIC 3D 首席执行官Zvi Or-Bach于2014 的主张。
    的头像 发表于 01-25 14:45 1038次阅读
    <b class='flag-5'>摩尔定律</b>的终结:芯片产业的下一个胜者法则是什么?

    墨芯人工智能CEO王维:需要重新定义和设计AI计算

    AI时代,我们需要重新定义和设计AI计算机。仅依靠硅基的摩尔定律,2翻一倍的线性增长的算力供给远不能满足指数级增长的需求问题。
    的头像 发表于 01-12 11:12 1014次阅读

    中国团队公开“Big Chip”架构能终结摩尔定律

    摩尔定律的终结——真正的摩尔定律,即晶体管随着工艺的每次缩小而变得更便宜、更快——正在让芯片制造商疯狂。
    的头像 发表于 01-09 10:16 757次阅读
    中国团队公开“Big Chip”架构能终结<b class='flag-5'>摩尔定律</b>?

    英特尔CEO基辛格:摩尔定律放缓,仍能制造万亿晶体

    帕特·基辛格进一步预测,尽管摩尔定律显著放缓,到2030英特尔依然可以生产出包含1万亿个晶体管的芯片。这将主要依靠新 RibbonFET晶体管、PowerVIA电源传输、下一代工艺节点以及3D芯片堆叠等技术实现。目前单个封装的最大芯片含有约1000亿个晶体管。
    的头像 发表于 12-26 15:07 617次阅读

    英特尔CEO基辛格:摩尔定律仍具生命力,且仍在推动创新

    摩尔定律概念最早由英特尔联合创始人戈登·摩尔在1970提出,明确指出芯片晶体管数量每两翻一番。得益于新节点密度提升及大规模生产芯片的能力
    的头像 发表于 12-25 14:54 563次阅读

    摩尔定律时代,Chiplet落地进展和重点企业布局

    电子发烧友网报道(文/吴子鹏)几年前,全球半导体产业的重心还是如何延续摩尔定律,在材料和设备端进行了大量的创新。然而,受限于工艺、制程和材料的瓶颈,当前摩尔定律发展出现疲态,产业的重点开始逐步转移到
    的头像 发表于 12-21 00:30 1457次阅读

    应对传统摩尔定律微缩挑战需要芯片布线和集成的新方法

    应对传统摩尔定律微缩挑战需要芯片布线和集成的新方法
    的头像 发表于 12-05 15:32 527次阅读
    应对传统<b class='flag-5'>摩尔定律</b>微缩挑战需要芯片布线和集成的新方法

    奇异摩尔与润欣科技加深战略合作开创Chiplet及互联芯粒未来

    模式的创新,就多种 Chiplet 互联产品和互联芯粒的应用领域拓展合作空间。 在摩尔定律持续放缓与最大化计算资源需求的矛盾下,Chiplet 已成为当今克服摩尔定律与硅物理极限挑战的核心战术。Chiplet 作为一种互连技术,
    的头像 发表于 11-30 11:06 3826次阅读