0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

神经拟态计算将是改变AI发展的关键

牵手一起梦 来源:科技日报 作者:佚名 2020-06-22 17:56 次阅读

知名信息研究和分析机构高德纳预测,到2025年,神经拟态芯片有望成为用于AI系统的主要芯片之一。

20世纪80年代,科学家设想将人类大脑的功能映射到硬件上,即直接用硬件来模拟人脑结构,这种方法称为神经拟态计算,这类硬件被称为神经拟态芯片。经过近40年发展,神经拟态芯片相继问世。全球知名信息研究和分析机构高德纳(Gartner)日前的预测显示,到2025年,神经拟态芯片将成为高级人工智能部署的主要计算架构,该芯片有望成为用于AI系统的主要计算机芯片之一。

脉冲神经网络信息处理不再依赖计算机

传统人工智能主要以计算,即通过编程等手段实现机器智能。其中深度学习是目前广泛应用的技术之一,2006年左右,深度学习技术进入大众视野。它通过添加多层人工神经网络,赋予机器视觉语音识别以及自然语言处理等方面的能力。

尽管深度学习有人工神经网络的加持,但通过计算实现智能的影子并未消失。“只不过与传统计算相比,深度学习的算法模型发生了变化,实现的物理载体依然是计算机。”北京大学信息科学技术学院教授黄铁军接受采访时表示。

“而与深度学习采用的多层人工智能神经网络不同,神经拟态计算构造的是脉冲神经网络,通过模拟生物神经网络实现智能。它本身就是能处理信息的载体,不再依赖于计算机。”黄铁军表示,神经拟态计算是探索实现人工智能的新范式。在信息处理方面,现在的人工神经网络处理的是相对静态的、固定的信息,脉冲神经网络则适合处理与时空高度相关的复杂信息流。

举例来说,机器人看到豹子时,采用深度学习方法能识别出是豹子,但对机器人而言这只是一个系统中的信息标签,而这些信息好像与它无关,机器并不能结合这些信息为下一步的行动作出判断。而人看到豹子,不仅可以通过外观识别出自己面对的动物是猛兽,还会观察豹子的行动,甚至判断自己所处的现实环境,并根据综合信息作出是否需要逃跑的判断。“这才是真正的智能。智能不仅是信息分类这么简单,它是对时空信息进行综合处理并作出决策行动的过程。”黄铁军解释道,神经拟态计算就是要通过模拟生物神经网络的方式,让机器拥有接近甚至超越生物神经网络的系统,帮助机器感知自然界中时空变化的信息,实时处理信息流并采取行动。

电脑”超越人脑成为可能

深度学习的大规模应用对计算机的计算能力提出更高要求,同时也让经典计算机的耗能一直居高不下,而按照生物神经网络结构设计的神经拟态计算,已成为大势所趋和必然选择。

神经拟态学工程师、德国海德堡大学物理学家卡尔海因茨·迈耶(Karlheinz Meier)表示,人脑相对计算机而言有三大特性:一是低能耗,人脑的功率大约是20瓦特,而当前试图模拟人脑的超级计算机需要几百万瓦特;二是容错性,人脑时刻都在失去神经元,而不会影响脑内的信息处理机制,而微处理器失去一个晶体管就能被破坏;三是无须编程,大脑在与外界交互的过程中自发地学习和改变,而无需像实现人工智能的程序一样遵循预设算法所限制的路径和分支。

黄铁军认为,通过模仿生物神经网络实现机器智能是一条十分重要的研究路线,未来它甚至有可能突破生物智能的天花板。尽管生物神经网络是一个慢速系统,每秒钟能产生的神经脉冲数量只有十几个,生物获取和处理的信息量也处于较低水平,但一旦将生物神经网络电子化,其处理信息的能力将比被模拟的生物大脑高出多个数量级。

黄铁军说,当与人脑类似的“电脑”变为现实时,它对人脑的大幅度超越就发生了:速度上,“电脑”可以比人脑快多个数量级;规模上,没有颅骨限制,“电脑”可以根据需求扩容;寿命上,电子系统即使有损耗,也可以复制迁移到新系统而永生;精度上,生物大脑的很多缺陷和短板将被“电脑”避免和弥补。

目前缺乏应用于现实的模型

虽然神经拟态计算前景广阔,但要实际应用仍面临不小挑战。黄铁军认为,缺少应用于现实的模型是神经拟态计算最大的瓶颈。

目前不少研究人员正在寻觅突破瓶颈的方式。有两种主要的技术途径:第一种是照着生物的脑部结构,依葫芦画瓢设计神经拟态计算系统。但前提是搞清楚生物神经网络的细节,如神经元的功能、结构,神经突触连接的特性等。

当前,人脑神经元的工作模式大体上已被科学家们掌握,大脑中数百个脑区的功能分工也已探明,但是脑区内的神经元网络的细节依旧是个谜。如果把生物神经网络看成地球,单个神经元就是城市里的一户人家,目前城市之间的交通连接是比较清楚的,但这远远不够,还要搞清楚每户人家是如何连接起来的。人脑有近千亿个神经元和数百万亿个连接,要解析出精细蓝图,工程量可想而知。

黄铁军认为,20年内就很有可能弄清楚人脑神经网络的精细结构。他还提到,研究人脑结构是个长远目标,目前的工作重点是斑马鱼、果蝇等动物的脑结构。他预测,几年之内果蝇脑(包含约30万神经元)就能解析清楚,这个级别的脉冲神经网络模型就会出现,利用果蝇脑模型,无人机就能更好地实现飞行、避障、追逐等。

在生物神经网络蓝图完成之前,第二种技术路径是人工设计脉冲神经网络模型。这也是黄铁军团队的工作内容之一,如基于对生物视觉的初步了解,设计视觉脉冲神经网络模型;根据机器对于目标检测、跟踪和识别功能的需求,研发超速全时视网膜芯片等。

专家表示,一旦能解决实际问题,神经拟态计算将会改变人工智能的发展格局。不过,深度学习作为基本方法依然有存在价值,就像算法仍然会在其擅长的领域发挥作用一样。另外,仿生物神经网络是实现强人工智能的一条途径,多种多样的生物智能本身就是最好的证据,但这不等于说所有的智能问题都要用仿生方式去解决。

“神经拟态计算不是实现智能的唯一方式。”黄铁军强调。
责任编辑:tzh

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 芯片
    +关注

    关注

    453

    文章

    50297

    浏览量

    421281
  • 人工智能
    +关注

    关注

    1791

    文章

    46734

    浏览量

    237257
  • 人工神经网络

    关注

    1

    文章

    119

    浏览量

    14591
收藏 人收藏

    评论

    相关推荐

    AI高性能计算平台是什么

    AI高性能计算平台不仅是AI技术发展的基石,更是推动AI应用落地、加速产业升级的重要工具。以下,是对AI
    的头像 发表于 11-11 09:56 71次阅读

    未来AI大模型的发展趋势

    上得到了显著提升。未来,算法和架构的进一步优化将推动AI大模型在性能上实现新的突破。 多头自注意力机制、前馈神经网络等关键技术的改进,将增强模型的表达能力和泛化能力。 多模态融合 : AI
    的头像 发表于 10-23 15:06 406次阅读

    AI for Science:人工智能驱动科学创新》第二章AI for Science的技术支撑学习心得

    人工智能在科学研究中的核心技术,包括机器学习、深度学习、神经网络等。这些技术构成了AI for Science的基石,使得AI能够处理和分析复杂的数据集,从而发现隐藏在数据中的模式和规律。 2. 高性能
    发表于 10-14 09:16

    开启全新AI时代 智能嵌入式系统快速发展——“第六届国产嵌入式操作系统技术与产业发展论坛”圆满结束

    计算机学院牛建伟教授主持。 中科院软件所副所长、总工程师,武延军研究员做了“AI大模型时代下的操作系统发展思考”主题演讲。 武延军介绍了操作系统的发展历程,指出应用的高速
    发表于 08-30 17:24

    计算机视觉技术的AI算法模型

    技术AI算法模型,包括卷积神经网络(CNN)、循环神经网络(RNN)、支持向量机(SVM)、卡尔曼滤波器(Kalman Filter)和随机森林(Random Forest)等,并对它们的特点、应用及
    的头像 发表于 07-24 12:46 568次阅读

    神经网络芯片与传统芯片的区别和联系

    引言 随着人工智能技术的快速发展,深度学习算法在图像识别、自然语言处理、语音识别等领域取得了显著的成果。然而,深度学习算法对计算资源的需求非常高,传统的计算芯片已经无法满足其需求。因此,神经
    的头像 发表于 07-04 09:31 670次阅读

    Imagination 引领边缘计算AI创新,拥抱AI未来发展

    ,致力于推动技术创新,拥抱人工智能的未来发展。同时他也介绍了Imagination在计算领域的战略布局、产品技术以及对未来AI发展的深刻洞察。Imagination
    的头像 发表于 06-28 08:28 497次阅读
    Imagination 引领边缘<b class='flag-5'>计算</b>和<b class='flag-5'>AI</b>创新,拥抱<b class='flag-5'>AI</b>未来<b class='flag-5'>发展</b>

    神经拟态计算是如何降耗的

    计算机问世以来,运算效能与能耗消耗两大议题始终困扰着计算产业。在人工智能崛起的背景下,全球各地科研机构及相关公司积极探索提高处理器算力的新方法,神经拟态处理器即是一种创新尝试。
    的头像 发表于 06-07 15:35 644次阅读

    存内计算WTM2101编译工具链 资料

    工艺条件下将AI计算效率提升2个数量级,充分满足快速发展神经网络模型指数级增长的算力需求。 witin_mapper是知存科技自研的用于神经
    发表于 05-16 16:33

    risc-v多核芯片在AI方面的应用

    得RISC-V多核芯片能够更好地适应AI算法的不同需求,包括深度学习、神经网络等,从而提高芯片的性能和效率,降低成本,使AI边缘计算晶片更具竞争力。 再者,RISC-V的多核设计可以进
    发表于 04-28 09:20

    英特尔研发新型神经形态计算机Hala Point,为AI发展注入新动力

    科学家对神经形态计算机抱有极高期望,因其采用人工神经元实现存储与运算功能,避免数据在组件间频繁传输,从而提高能源利用效率。
    的头像 发表于 04-19 15:47 323次阅读

    英特尔发布新一代神经拟态系统Hala Point,11.5亿神经元,12倍性能提升

    作为英特尔首个神经元数量达到11.5亿的神经拟态系统,Hala Point为更高效、规模更大的AI开辟了道路。   英特尔发布了代号为Hala Point的大型
    的头像 发表于 04-19 09:43 459次阅读
    英特尔发布新一代<b class='flag-5'>神经</b><b class='flag-5'>拟态</b>系统Hala Point,11.5亿<b class='flag-5'>神经</b>元,12倍性能提升

    NanoEdge AI的技术原理、应用场景及优势

    能耗并提高数据安全性。本文将对 NanoEdge AI 的技术原理、应用场景以及优势进行综述。 1、技术原理 NanoEdge AI 的核心技术包括边缘计算神经网络压缩和低功耗硬
    发表于 03-12 08:09

    什么是AI边缘计算AI边缘计算的特点和优势介绍

    随着人工智能的迅猛发展AI边缘计算成为了热门话题。那么什么是AI边缘计算呢?简单来说,它是将人工智能技术引入边缘
    的头像 发表于 02-01 11:42 799次阅读

    200亿大模型!AI PC处理器大战爆发,高通、苹果和英特尔上了哪些大招?

    2024年将是AI PC的元年,Canalys预计,到2027年,60%的PC将具备AI功能,对于厂商来说,这种集成将变成彻底改变用例和工作流程的
    的头像 发表于 12-17 03:54 2856次阅读
    200亿大模型!<b class='flag-5'>AI</b> PC处理器大战爆发,高通、苹果和英特尔上了哪些大招?