0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

企业和组织通过机器学习算法来竞争,但其实还要看硬件突破

bzSh_drc_iite 2018-01-17 09:10 次阅读

硬件又回来了!

关于人工智能的炒作都是关于算法的。在机器学习领域处于领先地位的谷歌公司Deep Mind最近发表了一篇文章,其中描述了AlphaGo Zero如何从零开始成为一个围棋大师,其利用强化学习算法的先进技术,击败了之前的所有版本。

然而,尽管企业和组织为引进算法设计和数据科学领域的顶尖人才而相互竞争,但真正的新闻并不是来自于比特世界,而是来自于电线、硅和电子行业:硬件又回来了!

摩尔定律的扁平化

首先,一个快速的历史旅程:1958年,第一个集成电路包含了2个晶体管,体积相当大,覆盖一平方厘米。到1971年,“摩尔定律”在集成芯片性能的指数级增长中变得明显;2300个晶体管在同一表面上,与以前一样。到2014年,IBM P8处理器拥有多达42亿个晶体管和16个核心,所有这些覆盖在650平方毫米。

在给定的硅片上,你能装多少个晶体管是有一个自然的限制的,而且我们很快就会达到这个极限。

此外,机器学习应用,尤其是在模式识别(如理解语音、图像等方面)需要大量的并行处理。当谷歌宣布其算法能够识别猫的图像时,他们没有提到的是,它的软件需要16000个处理器才能运行。

如果你可以在云计算的服务器上运行你的算法,这不是什么大问题,但如果你必须在一个移动设备上运行这些算法呢?这正日益成为一个重要的行业需求。在终端上运行先进的机器学习算法给用户带来了巨大的优势,同时也解决了许多数据隐私问题。

想象一下,如果Siri不需要做云计算,就能够处理智能手机硬件上的所有数据和算法。但是,如果你发现智能手机在几分钟通话或玩 Minecraft后变得太热,你就等着用手机来让Siri变得真正个性化。

解决瓶颈问题

设备变热的原因,以及我们当前计算机硬件设计的主要问题,是所谓的“冯诺依曼瓶颈”:经典的计算机架构将数据处理与数据存储分离开来,这意味着数据需要在计算过程中从一个地方转移到另一个地方。并行度通过分解计算和分布处理来解决部分问题,但你仍然需要在最后移动数据,将所有的数据都转换成期望的输出。

那么,如果有一种方法可以完全消除硬件瓶颈呢?如果处理和数据在同一个地方,无需移动,也不会产生热量或消耗那么多的能量,那会怎样呢?毕竟,我们的大脑就是这样工作的:我们没有像计算机那样处理数据和存储数据的独立区域,所有的事情都发生在我们的神经元上。

我们的大脑功能在人工智能研究中并不新鲜,我们已经在利用神经网络进行深度学习了。我们通过机器学习算法和并行处理来模拟神经元的功能。但是,如果我们的计算机不像我们的大脑那样运行,那该怎么办呢?

自20世纪70年代以来,人们就已经设想出这样一种方式:将大脑功能映射到硬件上,换句话说,就是用硬件直接“绘制”大脑的结构。这种方法被称为“神经形态计算”,目前终于开始走向商业化。英特尔高通等公司最近宣布,其将推出用于商业用途的神经形态芯片(neuromorphic chips)。

神经形态芯片可以用于AI应用的终端,这的确是一个非常令人兴奋的消息。不过,它们也有可能将机器智能提升到一个全新的水平。通过使用电子硬件而不是软件来发展机器认知,我们或许能够实现通用人工智能的梦想,并创造出真正的智能系统。

量子:计算大爆炸

但是,计算真正的大爆炸并非来自于神经形态芯片(尽管有巨大的潜力,最终可能只会有小众应用),而是来自于量子物理学的应用。随着对快速计算的需求增加,我们解决真正困难问题的雄心也在增加。如果我们能计算出排列一系列分子的最佳方式来开发治疗癌症的方法呢?这个问题实际上是针对减少所有癌症的研究,目前是由试错法进行的。

经典计算无法解决这样的问题:在经过几次迭代之后,参数的组合就会爆炸。量子计算有可能同时计算所有可能的组合,并在几秒钟内得出正确答案。有许多类似的优化问题可以用量子计算解决。比如在复杂的业务中优化资源配置,或者在经济中做出能够支持最佳策略的预测,或者在密码学中分解数字。

量子计算机正在快速发展:我们现在处于50量子位的水平。让我们把这个数字写进预先考虑的范围。一台32位的量子计算机可以处理40亿个系数和265 GB的信息——你可能会说,这并不令人印象深刻,因为你可以在几秒钟内在一台笔记本电脑上运行类似的程序。但一旦我们达到了64位的量子计算机极限,故事就会发生巨大的变化。这样的计算机可以同时计算出互联网上所有的信息,即74“艾字节”(十亿GB)——这将需要数年时间才能在当前的超级计算机上完成。我们已经非常接近了!

然而,一旦我们开发出了256位量子计算机,真正的游戏规则将会改变。这样的计算机将能够计算出宇宙中所有原子的数量,量子计算是宇宙计算,它对人类文明的影响可能是巨大而深远的。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 算法
    +关注

    关注

    23

    文章

    4606

    浏览量

    92803
  • 硬件
    +关注

    关注

    11

    文章

    3308

    浏览量

    66193
  • 人工智能
    +关注

    关注

    1791

    文章

    47146

    浏览量

    238124
  • 机器学习
    +关注

    关注

    66

    文章

    8401

    浏览量

    132536

原文标题:忘掉算法,人工智能的未来还要看硬件突破!

文章出处:【微信号:drc_iite,微信公众号:全球技术地图】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    【下载】《机器学习》+《机器学习实战》

    、Apriori算法、FP-Growth算法。第四部分介绍了机器学习算法的一些附属工具。全书通过
    发表于 06-01 15:49

    我国机器企业与国外机器企业到底有多大差距

    我们国家的机器企业跟国外的还有很大差距,比如上游核心元器件没有市场竞争力,技术含量低、建模分析能力不足等等。国内机器企业需要
    发表于 07-10 15:02

    我国机器企业与国外机器企业到底有多大差距

    `我们国家的机器企业跟国外的还有很大差距,比如上游核心元器件没有市场竞争力,技术含量低、建模分析能力不足等等。国内机器企业需要
    发表于 07-10 15:02

    机器学习算法应用

    关于机器学习的相关算法。正版资源,免费看的。
    发表于 08-24 22:14

    通过Excel表格学习机器学习算法

    五步解析机器学习难点—梯度下降【转】
    发表于 09-27 11:12

    机器学习算法分享

    机器学习算法(1)——Logistic Regression
    发表于 06-09 13:30

    什么是机器学习? 机器学习基础入门

    是将提供的两个数字相乘。图2。有了机器学习,我们就有了数据(输入)和答案(输出) ,并且需要计算机通过确定输入和输出如何以对整个数据集为真的方式相互关联推导出一种排序
    发表于 06-21 11:06

    机器学习竞争其实是一场数据上的竞争

    那些热衷竞争实施机器学习的公司现在惊讶地发现,其实,实施一些算法使机器变得对某一数据或问题更加智
    的头像 发表于 04-25 16:44 1816次阅读

    人人都能懂的机器学习算法原理教程免费下载

    算法公式挺费神,机器学习太伤人。任何一个刚入门机器学习的人都会被复杂的公式和晦涩难懂的术语吓到。
    发表于 05-21 08:00 1次下载
    人人都能懂的<b class='flag-5'>机器</b><b class='flag-5'>学习</b><b class='flag-5'>算法</b>原理教程免费下载

    17个机器学习的常用算法

    根据数据类型的不同,对一个问题的建模有不同的方式。在机器学习或者人工智能领域,人们首先会考虑算法学习方式。在机器
    的头像 发表于 08-11 11:20 1793次阅读

    机器学习算法汇总 机器学习算法分类 机器学习算法模型

    机器学习算法汇总 机器学习算法分类 机器
    的头像 发表于 08-17 16:11 1092次阅读

    机器学习算法总结 机器学习算法是什么 机器学习算法优缺点

    机器学习算法总结 机器学习算法是什么?机器
    的头像 发表于 08-17 16:11 1891次阅读

    机器学习算法入门 机器学习算法介绍 机器学习算法对比

    机器学习算法入门 机器学习算法介绍 机器
    的头像 发表于 08-17 16:27 946次阅读

    机器学习有哪些算法机器学习分类算法有哪些?机器学习预判有哪些算法

    机器学习有哪些算法机器学习分类算法有哪些?机器
    的头像 发表于 08-17 16:30 1978次阅读

    NPU与机器学习算法的关系

    紧密。 NPU的起源与特点 NPU的概念最早由谷歌在其TPU(Tensor Processing Unit)项目中提出,旨在为TensorFlow框架提供专用的硬件加速。NPU的设计目标是提高机器学习
    的头像 发表于 11-15 09:19 423次阅读