0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

概率计算能促进人工智能和机器学习吗?

DPVg_AI_era 来源:未知 作者:胡薇 2018-05-18 16:33 次阅读

英特尔等许多公司押注于概率计算,致力于使未来的系统能够理解和计算自然数据中固有的不确定性,制造出能够理解、预测和决策的计算机。概率计算被认为是最适合在不确定的情况下做出判断的技术。

根据英特尔首席技术官Mike Mayberry的说法,最初的人工智能浪潮是基于逻辑的,这是基于写下规则——即所谓的“经典推理”。在概率计算中,处理单元所消耗的能量降低,从而增加了某些操作出错的可能性。

定义概率计算

根据USFCA的说法,概率计算机将模拟问题(前向)带入一个推理程序(反向)。总部位于加州伯克利的Navia系统公司开发了概率计算机,它将其定义为最适合在不确定的情况下做出判断的技术,就像传统的计算技术是大规模的记录保存一样。这家成立于2007年的创业公司强调,与目前用于逻辑推理和精确计算的计算机不同,在概率计算领域,机器和程序是用来处理不确定性和从经验中进行学习的。

英特尔在概率计算下压上重注

英特尔正把赌注押在概率计算上,这是人工智能的一个主要组成部分,它将使未来的系统能够理解和计算自然数据中固有的不确定性,并有助于研究人员能够制造出能够理解、预测和决策的计算机。Mayberry在一篇文章中指出,如今人工智能的一个关键障碍是,给电脑提供的自然数据大多是非结构化和“嘈杂”的。他强调,概率计算可以使计算机在处理大规模的概率时更有效率,这是将当前系统和应用程序从先进的计算辅助工具转变为理解和决策的智能合作伙伴的关键。

Intel CTO Mike Mayberry

作为研究的一部分,这家领先的芯片制造商建立了英特尔的概率计算战略研究联盟,以促进与学术界和创业社区的研究和合作,并将实验室的创新带到实际应用中。该公司想要解决的核心领域是基准应用、对抗攻击缓解、概率框架、软件和硬件优化。

其他公司正在重新思考计算机架构

根据洛斯阿拉莫斯国家实验室(Los Alamos NationalLaboratory,LANL)的数据,概率计算为新的架构铺平了道路,这些新架构可以帮助优化传统的基本算法。LANL指出概率计算是一个具有挑战性的挑战,因为大量的特征尺寸的减少会导致非确定性,这也是一个巨大的机会,因为它提供了一种探索丰富空间的算法,也帮助研究人员可以概率性的降低功耗硬件方法。

深度学习中应用概率计算

对于研究人员来说,最大的优势之一就是概率计算可以用比当前范式所提供的更低的能量来进行计算。今天,通用机器已经获得了很高的成熟度,并且大量的用例和应用程序,比如音频和语音处理,都需要很高的计算能力。其结果是,围绕创新的新硬件系统的研究在学术和技术领域获得了越来越多的关注。计算的概率性质允许数量级的加速,并可以大大减少电力消耗。根据乔治亚理工学院的研究员Krishna V Palem的说法,电力是高计算速度的主要驱动因素,现在的主要问题是如何在嵌入式计算设备中使电池续航时间更长。Palem强调,计算可以被建模为偏离,而不是采用直线的方法,随后我们可以控制计算的曲折行为达到期望的水平,同时将能源的成本节省到忽略不计的程度。

前景

专注于人工智能的硬件已经催生了一个创业生态系统,这些初创公司正在努力使人工智能操作更加顺畅。一个例子就是加利福尼亚的Samba Nova系统,它通过创建一个新平台来为新一代的计算提供动力。据新闻媒体报道,这家创业公司认为,尽管英伟达GPU已经成为该行业深度学习应用的实际标准,但仍有颠覆的空间。新闻报道称,该公司在A轮融资中获得了5600万美元的融资,该公司希望打造一款能够在任何以人工智能设备上运行的新一代硬件,这是一款为自动驾驶技术提供动力的芯片

目前,人工智能硬件市场已经见证了像苹果和谷歌这样的大公司,他们推出了专门的硬件来加速电脑视觉、图像识别等任务,但人工智能和数据分析不再局限于大型科技公司。其他在类似领域运营的创业公司是Graphcore和中国的地平线机器人公司,它们也在对硬件进行投资,并基于GPU进行了激烈的竞争,因为GPUs是所有与人工智能相关技术的密集型计算应用的支柱。从Facebook到百度,几乎每一家大公司都对GPU进行了投资,以快速完成对深度学习应用的研究,并训练复杂的模型。在效率方面,GPU的效率是CPU的10倍,在功耗方面,NVIDIA声称GPU也在推动计算行业的能源效率。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 英特尔
    +关注

    关注

    61

    文章

    9978

    浏览量

    171862
  • 人工智能
    +关注

    关注

    1791

    文章

    47350

    浏览量

    238759
  • 机器学习
    +关注

    关注

    66

    文章

    8422

    浏览量

    132714

原文标题:概率计算或成AI突破新爆点,最适合处理不确定性

文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    嵌入式和人工智能究竟是什么关系?

    领域,如工业控制、智能家居、医疗设备等。 人工智能计算机科学的一个分支,它研究如何使计算机具备像人类一样思考、学习、推理和决策的能力。
    发表于 11-14 16:39

    人工智能机器学习和深度学习存在什么区别

    人工智能指的是在某种程度上显示出类似人类智能的设备。AI有很多技术,但其中一个很大的子集是机器学习——让算法从数据中学习
    发表于 10-24 17:22 2499次阅读
    <b class='flag-5'>人工智能</b>、<b class='flag-5'>机器</b><b class='flag-5'>学习</b>和深度<b class='flag-5'>学习</b>存在什么区别

    《AI for Science:人工智能驱动科学创新》第6章人AI与能源科学读后感

    、优化等方面的应用有了更清晰的认识。特别是书中提到的基于大数据和机器学习的能源管理系统,通过实时监测和分析能源数据,实现了能源的高效利用和智能化管理。 其次,第6章通过多个案例展示了人工智能
    发表于 10-14 09:27

    《AI for Science:人工智能驱动科学创新》第二章AI for Science的技术支撑学习心得

    人工智能在科学研究中的核心技术,包括机器学习、深度学习、神经网络等。这些技术构成了AI for Science的基石,使得AI能够处理和分析复杂的数据集,从而发现隐藏在数据中的模式和规
    发表于 10-14 09:16

    《AI for Science:人工智能驱动科学创新》第一章人工智能驱动的科学创新学习心得

    人工智能:科学研究的加速器 第一章清晰地阐述了人工智能作为科学研究工具的强大功能。通过机器学习、深度学习等先进技术,AI能够处理和分析海量
    发表于 10-14 09:12

    risc-v在人工智能图像处理应用前景分析

    RISC-V和Arm内核及其定制的机器学习和浮点运算单元,用于处理复杂的人工智能图像处理任务。 四、未来发展趋势 随着人工智能技术的不断发展和普及,RISC-V在
    发表于 09-28 11:00

    FPGA在人工智能中的应用有哪些?

    定制化的硬件设计,提高了硬件的灵活性和适应性。 综上所述,FPGA在人工智能领域的应用前景广阔,不仅可以用于深度学习的加速和云计算的加速,还可以针对特定应用场景进行定制化计算,为
    发表于 07-29 17:05

    机器视觉和人工智能的关系与应用

    机器视觉和人工智能的关系是一个广泛而深入的话题,涉及到计算机科学、电子工程、光学、图像处理、模式识别等多个领域。 一、机器视觉和人工智能的定
    的头像 发表于 07-16 10:27 964次阅读

    计算机视觉与人工智能的关系是什么

    引言 计算机视觉是一门研究如何使计算机能够理解和解释视觉信息的学科。它涉及到图像处理、模式识别、机器学习等多个领域的知识。人工智能则是研究如
    的头像 发表于 07-09 09:25 667次阅读

    人工智能机器学习和深度学习是什么

    在科技日新月异的今天,人工智能(Artificial Intelligence, AI)、机器学习(Machine Learning, ML)和深度学习(Deep Learning,
    的头像 发表于 07-03 18:22 1318次阅读

    5G智能物联网课程之Aidlux下人工智能开发(SC171开发套件V2)

    ://t.elecfans.com/v/27221.html *附件:初学者完整学习流程实现手写数字识别案例_V2-20240506.pdf 人工智能 语音对话机器人案例 26分03秒 https
    发表于 05-10 16:46

    机器学习怎么进入人工智能

    人工智能(Artificial Intelligence,AI)是一门涉及计算机、工程、数学、哲学和认知科学等多个领域的交叉学科,旨在构建智能计算机系统,使之能够自主感知、理解、
    的头像 发表于 04-04 08:41 336次阅读

    5G智能物联网课程之Aidlux下人工智能开发(SC171开发套件V1)

    *附件:初学者完整学习流程实现手写数字识别案例.pdf 人工智能 语音对话机器人案例 26分03秒 https://t.elecfans.com/v/27185.html *附件:语音对话
    发表于 04-01 10:40

    人工智能机器学习的顶级开发板有哪些?

    机器学习(ML)和人工智能(AI)不再局限于高端服务器或云平台。得益于集成电路(IC)和软件技术的新发展,在微型控制器和微型计算机上实现机器
    的头像 发表于 02-29 18:59 847次阅读
    <b class='flag-5'>人工智能</b>和<b class='flag-5'>机器</b><b class='flag-5'>学习</b>的顶级开发板有哪些?

    嵌入式人工智能的就业方向有哪些?

    联网ARM开发 NB-IoT开发及实战 七:python工程师,人工智能工程师 python语法基础 python核心编程 基于OpenCV的机器视觉开发 嵌入式人工智能渗入生活的方方面面,广泛应用
    发表于 02-26 10:17