0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

2018年CNCC大会“神经形态芯片与神经形态计算机”

DPVg_AI_era 来源:未知 作者:李倩 2018-11-05 17:30 次阅读

神经形态计算能够大幅提升数据处理能力和机器学习能力,是高性能计算的下一发展阶段。在2018年CNCC大会“神经形态芯片与神经形态计算机”论坛上,陈云霁、汪玉、吴南健、曾毅、唐华锦、赵地等嘉宾做了相关报告,新智元创始兼CEO杨静作为论坛主持人。

深度学习为代表的人工神经网络是机器学习最重要的方法之一,在云端和终端都有非常广泛的应用。然而传统的CPUGPU芯片在进行神经网络处理时遇到了严重的性能和能耗瓶颈。

神经形态计算能够大幅提升数据处理能力和机器学习能力,能耗和体积却要小得多,或将引领计算机微型化和人工智能的下一阶段。

目前,神经形态芯片已经进入工程化研发。IBM公司2014年8月所公布的百万神经元级别的TrueNorth芯片,在执行某些任务时,其能效可达传统中央处理器的数百倍,首次与人脑的大脑皮层有了可比之处。

英特尔的首款神经拟态芯片Loihi通过脉冲或尖峰传递信息,并自动调节突触强度,利用环境中的各种反馈信息,进行自主学习、下达命令,也与人类大脑运行机制相似。

在2018年CNCC大会“神经形态芯片与神经形态计算机”论坛上,中科院计算所研究员、智能处理器研究中心主任陈云霁,清华大学电子工程系长聘副教授汪玉,中科院半导体所研究员、中国科学院大学教授吴南健,中科院自动化所研究员、类脑智能研究中心副主任曾毅,四川大学类脑中心主任唐华锦,中科院计算所副研究员赵地先后做了相关报告,新智元创始人兼CEO杨静女士作为特邀嘉宾主持论坛及Panel环节。论坛共同主席为唐华锦、赵地。

在Panel环节上,吴南健、曾毅、唐华锦、赵地以及西南大学电子信息工程学院段书凯教授参与。

根据嘉宾演讲内容,整场论坛大致可分为神经形态芯片、神经形态计算算法以及论坛Panel三部分。以下为论坛精要。

神经形态芯片新思路:ASIC之外的突破

首先是中科院计算所研究员、智能处理器研究中心主任陈云霁的演讲题目为《深度学习专用处理器》。

传统ASIC的思路无法解决深度学习处理的需求,寒武纪主要突破三大矛盾:

1、有限规模的硬件如何解决任意规模的算法;

2、结构固定的硬件怎么应对千变万化的算法;

3、能耗受限的硬件怎么支撑精度优先的算法;

针对上述三个矛盾,寒武纪分别做了以下三个努力:

1、硬件神经元虚拟化。

学术创新:通过分时复用,将有限规模的硬件虚拟成任意大规模的人工神经网络。

关键技术包括:

控制架构:支持硬件神经元的动态冲配置和运行时编程

访存架构:分离式的输入神经元、输出神经元和突出的片上存储。

2、深度学习指令集。

学术创新:自动化抽取各种深度学习(机器学习)算法共性基本算子,设计首个深度学习指令集来处理这些算法。

关键技术包括:

算子聚类:自动化抽取算法核心片段,基于数据特性聚为少数几类。

运算架构:设计共性神经元电路,支持变精度流水级。

3、稀疏神经网络处理器结构。

学术创新:利用神经网对于计算误差的容忍能力,进行稀疏化神经网络处理,在有限的能耗下实现高精度的智能处理。

随后,清华大学长聘教授汪玉博士做了《基于RRAM的神经网络系统设计与探索》报告。

因为CPU和GPU效率不高,因此要把神经网络应用于更广泛的应用,需要定制硬件。FPGA可以成为神经网络加速的理想平台,因为它是可编程的,与通用处理器相比可以实现更高的能效。

然而,较长的开发周期和传统的FPGA加速性能不足使其无法广泛使用。汪玉介绍了一个完整的设计流程,采用深度压缩和数据量化来利用算法中的冗余并降低计算和存储器复杂性,以实现快速部署和高能效,以加速FPGA上的神经网络。

另一方面,以存算一体化为基础(例如基于RRAM等非易失存器件)的神经网络计算平台设计成为发展方向,报告还介绍了基于RRAM的深度学习处理系统设计,探讨进一步提高能效的机遇与挑战。

RRAM是电阻网络的向量和向量的运算,只要一通电,数据流过,就会出结果,不需要搬数据,所以非常漂亮的一种方式。

但是这种方式真的是好吗?最近几年,这种方式能做出来的芯片都还非常的小。

汪玉团队针对存算一体化系统中的一些关键问题展开研究,特别是数模混合系统的接口设计优化、如何用不可靠的器件设计可靠系统等方面开展大量研究。

接下来,中科院半导体所研究员、中国科学院大学教授吴南健做了《人工视觉系统芯片研究及发展趋势》报告。

人工视觉系统芯片是单芯片集成视觉传感器和视觉并行处理器,能够模仿人类视觉系统的信息并行获取和处理,可实现高速图像获取、传输、学习、记忆、识别和控制。

涉及到的核心技术涉及三点:视觉呈现、视觉信息处理、集成技术。

人工视觉芯片是典型的边缘计算,要求实时处理能力强、功耗低、体积小,非常难设计,但应用前景广泛,吴教授认为,3、4年内应该会大规模应用。

根据视觉获取和处理方法不同,人工视觉系统芯片分为帧驱动和事件驱动视觉芯片。以下为两种芯片的比较:

其中,事件驱动视觉芯片能够检测空间和事件光变化,以事件方式获取信号、处理信号和输出,相对帧驱动视觉芯片,事件驱动视觉芯片还处于起步阶段。

目前,国际上的人工视觉系统芯片最新成果对比:

目前人工智能是计算速度与数据规模提升的结果,机器自我意识何时觉醒?

中国科学院自动化研究所研究员、类脑智能研究中心副主任曾毅做了《类脑智能:从类脑认知引擎到有意识的生命体》的报告。

类脑智能是通过受脑多尺度结构与计算机制启发,探索人类智能本质与人类水平人工智能的重要途径之一。报告从人类的心智是否能够在计算系统中重现等科学问题出发,从人工智能、神经科学、认知科学融合的视角介绍类脑认知引的研究进展。

曾毅认为,目前的人工智能是计算速度与数据规模的提升。在曾毅看来,数据智能与机器智能并不是真正的智能,它们只是看上去很像智能的信息处理,与真正探索智能本质,基于机制的人工智能还相去甚远。

他的演讲着重介绍课题组在大规模多尺度脑神经网络建模与模拟、类脑自主学习与决策及其在无人、机器人领域的应用方面。在此基融上,将进一步探讨机器自我意识的初步探索并展望机器意识与人机社会的未来。

四川大学教授唐华锦教授做了《神经形态计算进展》报告。

与传统人工智能方法不同,神经形态计算主要受神经科学发展推动,是建立在大脑神经电路结构和神经信息处理与神经脉冲计算原理上的新型计算模式,并最终以神经形态硬件方式来实现仿脑的认知计算与低功耗运算。

虽然在神经元和突触层级神经科学已经取得了很大的进展,但神经元之间如何通过网络连接取得复杂认知功能仍然缺乏了解。

唐华锦教授从神经形态认知计算领域需要解决的主要问题出发,介绍如下几个方面内容:神经信息编码、突触可望性与学习算法,以及集成编码与学习的系统模型,并讨论神经形态计算领域的最新进展及展望。

随后,中科院计算所副研究员赵地做了《神经形态计算与医学影像分析》报告。

心电信号检测与分析是心脏疾病患者的重要保障。现有的方法包括机器学习与一维深度学习。然而,现有的方法难以满足心脏疾病患者全天候实时检测高准确率和低能耗的要求。

赵地的研究基于脉冲神经网络,将心电信号的时空特性直接编码到尖峰序到中,通过基于 Izhikevich尖峰神经元的网路进行特征提取,并采用时间以来可塑性(STDP)算法进行优化,对心电信号指示的疾病进行识别。实验结果表明,通过基于类脑计算的算法分析公共ECG数据库和内部临床试验,准确率与能耗远优于现有的方法。

中国自主芯片研发最关键着力点:生态

在论坛的panel环节,吴南健、曾毅、唐华锦、赵地以及西南大学电子信息工程学院段书凯教授参与,新智元创始人兼CEO杨静女士担任主持人。

杨静:在贸易紧张背景下,中国遭“缺芯”之痛,产业界和学术界对于中国自主芯片的研发的最关键着力点究竟在哪儿?中国未来AI芯的最短板是哪里?我们该怎么办?

嘉宾:英特尔和微软是最佳的“联姻”,形成WIntel生态。华为、阿里的芯片做出来了,但如果没人用,做的再好也不会形成生态。我们国家在很早的时候做出了CPU和系统,但是很多软件移植不到上面去。关键在于产学研要融合,企业要和学校紧密联系,同时也应该建立起生态。

对于研究人员而言,应该主动和产业对接,成果优先在产业界转化。

芯片的问题实际上是结构性问题,我们国家芯片开发长期以来落后,另一方面也反映对芯片开发缺乏信心。但是我国将近20年的集成电路发展,水平是可以达到国家的需求,希望系统厂商能有风险意识,应该有国内供应商。

杨静:中国有哪些研发机构在神经形态芯片领域最有希望取得突破,最关键的应用领域有哪些?

嘉宾:总体来讲,国家整体态势跟美国相比可能有差距,差距还是在整体的生态和环境上,但是跟国际上其他国家相比还是有优势的。今年以来,国内企业和学术机构发布的芯片在国际上达到较高水平。

在神经形态领域应该有提前布局,不管是基本单元的性能还是智能,以体系结构的视角提升高智能。

未来,自适应、自学习的芯片硬件是最有可能突破的方向。

杨静:欧洲大脑计划、美国大脑计划或者中国大脑计划都渐渐从公众视野淡出,人类大脑计划未来3年会出现新的突破么?目标会调整么?

嘉宾:信息论和图灵机的模型定义在几十年前,现在还是定义这样,人类大脑计划目标就是为了突破这种定义。

十年时间重新创造人类大脑是非常困难的,以现在神经科学在三维重建上的技术是不能实现的。这是万米赛跑,大家都刚起步。

杨静:2018年国际上神经形态芯片研发有哪些重大进展?是产业主导还是学术主导?

嘉宾:英特尔神经形态芯片不管是在规模还是性能上都是非常领先的,国内,寒武纪、地平线等公司做的芯片。

在忆阻器方面,整体上全球各个国家都有明显的进步,清华、科学院微电子所、华中科大几大团队也在做。引起工业界关注的是利用光来进行神经拟态芯片研发。

新智元创始人兼CEO杨静女士与论坛共同主席唐华锦(左一)、赵地

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 芯片
    +关注

    关注

    456

    文章

    50936

    浏览量

    424654
  • 存储器
    +关注

    关注

    38

    文章

    7513

    浏览量

    163986
  • 神经网络
    +关注

    关注

    42

    文章

    4773

    浏览量

    100889

原文标题:CNCC最火论坛干货:神经形态芯片与神经形态计算机

文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    TDK成功研发出用于神经形态设备的自旋忆阻器

    TDK公司宣布其已成功研发出一款超低能耗的神经形态元件--自旋忆阻器。通过模拟人脑高效节能的运行模式,该元件可将人工智能(AI)应用的能耗降至传统设备的百分之一。与法国研究机构原子能和替代能源
    的头像 发表于 10-14 11:00 482次阅读

    龙芯中科亮相第二届中国计算机学会芯片大会

    近日,由CCF体系结构专业委员会、集成电路设计专业委员会、容错计算专业委员会、计算机工程与工艺专业委员会联合举办的第二届中国计算机学会芯片大会
    的头像 发表于 07-30 15:47 772次阅读

    计算机视觉技术的AI算法模型

    计算机视觉技术作为人工智能领域的一个重要分支,旨在使计算机能够像人类一样理解和解释图像及视频中的信息。为了实现这一目标,计算机视觉技术依赖于多种先进的AI算法模型。以下将详细介绍几种常见的计算
    的头像 发表于 07-24 12:46 937次阅读

    神经元是什么?神经元在神经系统中的作用

    神经元,又称神经细胞,是神经系统的基本结构和功能单位。它们负责接收、整合、传导和传递信息,从而参与和调控神经系统的各种活动。神经元在
    的头像 发表于 07-12 11:49 1401次阅读
    <b class='flag-5'>神经</b>元是什么?<b class='flag-5'>神经</b>元在<b class='flag-5'>神经</b>系统中的作用

    人工智能神经元的基本结构

    人工智能神经元的基本结构是一个复杂而深入的话题,涉及到计算机科学、数学、神经科学等多个领域的知识。 引言 人工智能(Artificial Intelligence,简称AI)是计算机
    的头像 发表于 07-11 11:19 1399次阅读

    神经网络芯片与传统芯片的区别和联系

    引言 随着人工智能技术的快速发展,深度学习算法在图像识别、自然语言处理、语音识别等领域取得了显著的成果。然而,深度学习算法对计算资源的需求非常高,传统的计算芯片已经无法满足其需求。因此,神经
    的头像 发表于 07-04 09:31 1003次阅读

    神经网络芯片和普通芯片区别

    神经网络芯片和普通芯片的区别是一个复杂而深入的话题,涉及到计算机科学、电子工程、人工智能等多个领域。 定义 神经网络
    的头像 发表于 07-04 09:30 1233次阅读

    神经元的结构及功能是什么

    神经元是神经系统的基本结构和功能单位,它们通过电信号和化学信号进行信息传递和处理。神经元的结构和功能非常复杂,涉及到许多不同的方面。 一、神经元的
    的头像 发表于 07-03 11:33 1376次阅读

    神经形态计算器件和阵列测试解决方案

    神经形态计算是一种新型的计算范式,它模仿生物神经网络(如人脑)的结构和功能以在为人工智能、机器学习、机器人和感官处理等各种应用实现高性能、低
    的头像 发表于 07-03 10:02 389次阅读
    <b class='flag-5'>神经</b><b class='flag-5'>形态</b><b class='flag-5'>计算</b>器件和阵列测试解决方案

    神经拟态计算是如何降耗的

    计算机问世以来,运算效能与能耗消耗两大议题始终困扰着计算产业。在人工智能崛起的背景下,全球各地科研机构及相关公司积极探索提高处理器算力的新方法,神经拟态处理器即是一种创新尝试。
    的头像 发表于 06-07 15:35 697次阅读

    我国科研人员联合研发出一款新型类脑神经形态系统级芯片Speck

    6月1日,记者从中国科学院自动化研究所获悉,来自该所等单位的科研人员联合研发出一款新型类脑神经形态系统级芯片Speck。该芯片展示了类脑神经
    的头像 发表于 06-04 09:43 1.8w次阅读
    我国科研人员联合研发出一款新型类脑<b class='flag-5'>神经</b><b class='flag-5'>形态</b>系统级<b class='flag-5'>芯片</b>Speck

    英特尔推出Hala Point全球最大仿神经形态系统,解决AI效率问题

    英特尔实验室神经形态运算总监Mike Davies指出,“当前AI模型训练及部署成本增长迅速,行业亟需创新方法。因此,英特尔实验室研发了Hala Point,融合深度学习效率、类人脑持续学习和优化功能。
    的头像 发表于 04-23 10:00 495次阅读

    英特尔最大神经形态计算机研制成功

    英特尔公司最近成功研制出了世界上最大的神经形态计算机Hala Point,这一创新性的技术突破在人工智能领域引起了广泛关注。
    的头像 发表于 04-22 10:10 474次阅读

    英特尔研发新型神经形态计算机Hala Point,为AI发展注入新动力

    科学家对神经形态计算机抱有极高期望,因其采用人工神经元实现存储与运算功能,避免数据在组件间频繁传输,从而提高能源利用效率。
    的头像 发表于 04-19 15:47 376次阅读

    英特尔携手桑迪亚构建全球最庞大神经形态系统

    英特尔Loihi 2神经形态芯片体积微小,采用Intel 4工艺制造(除Meteor Lake外,目前唯一使用该工艺的芯片),面积仅31平方毫米,包含23亿个晶体管。
    的头像 发表于 04-18 15:17 325次阅读