0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

光电智能计算架构和芯片研究

中科院半导体所 来源:中国物理学会期刊网 2024-01-08 09:13 次阅读

文章来源:中国物理学会期刊网

原文作者:方璐1,3^吴嘉敏2,3 戴琼海2,3,

介绍了什么是光电智能计算架构和芯片

1.引言

当前,人工智能技术的复兴正引领着新一代信息技术迅猛发展,由电子驱动的计算处理器在过去十年中发生了巨大的变化,从通用中央处理器(CPU)到定制计算平台,例如GPUFPGAASIC,以满足对计算资源无处不在的持续增长的需求。这些硅计算硬件平台的进步催生了更大规模的训练和更复杂的模型,极大地促进了人工智能(AI)的复兴。我们见证了各种神经计算架构,例如卷积神经网络(CNN)、递归神经网络(RNN)、脉冲神经网络(SNN)等,在诸多领域的广泛应用。

然而传统电子计算机的架构和性能的发展趋势已经无法满足新一代信息技术发展对计算资源的需求。随着先进光刻工艺的不断发展,晶体管尺寸已经缩小到10 nm以下,逐渐逼近原子尺寸,这使得芯片的加工难度以及加工成本呈指数式上升。与此同时,随着晶体管密度的增加,趋势明显的漏电流效应加剧了芯片热功耗,对系统整体散热能力的需求也不断上升,已经开始成为限制晶体管密度的另一瓶颈。故而,无论是在硬件实现还是计算架构上,都使得预测晶体管制程的摩尔定律难以维系,新型智能计算架构与芯片研究迫在眉睫。

光具有物理空间最快的传播速度以及多维度(时间、空间、光谱等)的优势,这些特性使得光计算成为构建下一代高性能计算的理想范式之一。受益于光计算的颠覆性优势(高带宽、高并行、低功耗),相比电子计算,光计算在理论上有望提升6个数量级的能量效率、3个数量级的计算速度。针对如何实现光计算,国际上已经有初步的研究[1,2],一些代表性的技术包括:基于片上光学干涉仪网络实现任意矩阵变换[3],基于谐振环和谐振腔进行可编程光计算[4],基于衍射连接实现全光神经网络[5],基于相变材料实现存内光计算[6]等。然而,现阶段的光计算仍然面临算力不足、动态计算困难、训练效率低下等问题,如何实现大规模、可重构、低功耗的光电计算芯片并支撑人工智能应用仍然面临原理架构、智能算法、集成工艺等诸多难题。

2.光电智能计算架构和芯片研究

2.1 光电智能计算架构

针对光电智能计算面临的规模与重构难题,清华大学研究团队提出了可重构衍射智能计算架构,构建了可重构衍射智能计算处理器(DPU)(图1(a))[7]。DPU对光学衍射物理现象进行建模,通过大规模的光学互联,构建高复杂度的光学神经网络(图1(b))。此外,DPU充分挖掘了光的波粒二象性,控制光波传播的波前分布,实现光神经网络权重的调整,采用光电效应来实现人工神经元,解决大规模光电非线性激活函数这一理论难题。通过高通量可编程的光电器件结合电子计算的灵活特性,实现了高速数据调控以及大规模网络结构和参数的编程。DPU计算架构中,光计算模块几乎承担了所有的计算操作。因此,运行同样的神经网络,光电计算系统与特斯拉V100图形处理器(GPU)相比,计算速度提高了8倍,系统能效提升超过一个数量级,核心模块计算能效可以提升4个数量级。

wKgaomWbTEiAFA4AABBeUZP6v1g756.png

图1 大规模多通道光电智能计算架构和训练方法 (a)可重构智能计算处理器;(b)大规模光学神经网络训练;(c)多通道光电神经网络示意图

研究团队进一步对光学干涉与衍射进行联合建模,提出了多通道光电神经网络的新架构Monet(multi-channel optical neural NETworks)[8],将多个光学通道的光场信息进行融合计算,实现了基于光电智能计算的高维光场信息调制解耦(图1(c))。其中,编码投影干涉计算单元(IU),通过相位和偏振的编码调制以及通道间的光学干涉,实现特征匹配、加权求和等多通道光学基本计算。IU和衍射计算单元(DU)的交替级联,实现了光场信息的多通道可重构智能计算。Monet架构突破了现有光电神经网络结构简单、通道受限等瓶颈,为构建大规模光电神经网络、探索复杂光场智能感算提供了理论与架构支撑。

目前光电智能计算在高速图像处理方面有突出表现,但现有架构难以挖掘高速动态光场的时间维度特性,动态计算受制于电子内存读写的瓶颈,难以满足面向超快动态现象开展实时智能分析的现实需求。研究团队提出了空时域智能光计算架构[9],刻画多维光场传播模型,建立空时域光计算表征,在空间和时序维度上同时完成连续光计算(图2(a))。研究团队还提出了空间复用和光谱复用的智能计算模型(图2(b)),匹配空时域光计算维度,建立时序矩阵乘加计算模型,实现了三维空时域智能光计算。空时域光计算的空间和时序计算操作均在光学模拟域完成,突破了数字内存读写的掣肘,将动态机器视觉处理的速度提升了3个数量级(达到纳秒量级)。

wKgZomWbTEiALws7AAHldJu4juw358.png

图2 空时域动态光计算 (a)空时域动态光计算系统示意图;(b)空时域动态光计算模型

现有光电神经网络学习架构仅能支撑小规模训练,其网络容量和特征捕获能力不足以有效处理ImageNet等大型复杂数据集。为了解决大规模光电神经网络中优化速度慢、资源消耗高、收敛效果差等问题,研究团队提出了面向大规模光电智能计算的“光学—人工双神经元学习架构DANTE(DuAl-Neuron opTical-artificial lEarning)[10]。其中光学神经元精准建模光场计算过程,人工神经元以轻量映射函数建立跳跃连接,助力梯度传播,全局人工神经元与局部光学神经元以交替学习的机制进行迭代优化,在确保学习有效性的同时,大大降低了训练的时空复杂度,使得训练更大更深的光电神经网络成为可能。DANTE突破了大规模光电神经网络物e理建模复杂、参数优化困难等桎梏,网络规模提升一至两个数量级,训练学习速度提升2个数量级。

2.2 全模拟光电智能计算芯片

在上述系列新架构的基础上,研究团队研制了国际首个全模拟光电智能计算芯片ACCEL(图3)[11,12],在一枚芯片上突破性地实现了大规模计算单元集成、光计算与电子信号计算的高效接口。其核心思想是通过全模拟的光电计算方式来降低对大规模光电二极管阵列和高功耗模拟数字转换器(ADC)阵列的依赖,实现光学和电子计算的高效集成。ACCEL的工作原理涉及两个主要模块,即光学模拟计算(OAC)和电子模拟计算(EAC)。OAC通过多层衍射光学计算模块,以光速提取高分辨率图像的特征,降低图像维度并减少光电转换需求。EAC包括一个32×32的光电二极管阵列,作为非线性激活器,将光学信号转换为模拟电子信号,实现类似二进制加权的全连接神经网络。ACCEL芯片以全模拟方式进行计算,适用于广泛的应用,并与数字神经网络兼容。

wKgZomWbTEiAD-EBAAPuesWMfOE607.png

图3 全模拟光电智能计算芯片(ACCEL)工作原理图

ACCEL通过数值模拟和实验验证,在低光条件下展现出优异的稳健性。对于输入光强的降低,ACCEL通过模拟噪声对输出进行精准校准,可以成功应对多种干扰。在可重构方面,同一OAC在不同任务中均取得了显著效果。通过OAC对多个数据集的联合训练,ACCEL在不同领域的应用中取得了出色的泛化性能,为实际工业检测等场景提供了关键的灵活性。与现有高性能芯片相比,ACCEL芯片的算力(单位时间的运算次数)提升了3000倍,系统级能效(单位能量可进行的运算数)提升了400万余倍。对于10类MNIST分类和3类ImageNet分类,ACCEL各达到9.49×103 TOPS/W和7.48×104 TOPS/W (1 TOPS/W表示在1 W功耗的情况下,处理器可以进行1012次操作)的系统能效,展示了其在能效方面的优越性。ACCEL作为一种全新的光电神经网络,通过其独特的设计和卓越的性能,在人工智能硬件领域崭露头角。其在图像分类、视频判断和低光条件下的稳健性等方面的优异表现,为未来神经网络研究和应用开辟了新的前景。

3.总结

光电智能计算作为一种新兴计算范式,将为后摩尔时代的人工智能高效训练和推理带来新的契机。光子智能芯片的研究将极大促进人工智能的发展,为大规模数据的高效智能处理、大场景多对象光场智能感算、高速低功耗智能无人系统、超高速科学研究等奠定基础,具有广阔的应用前景。

审核编辑:汤梓红
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 处理器
    +关注

    关注

    68

    文章

    19273

    浏览量

    229724
  • 芯片
    +关注

    关注

    455

    文章

    50756

    浏览量

    423343
  • 神经网络
    +关注

    关注

    42

    文章

    4771

    浏览量

    100739
  • 人工智能
    +关注

    关注

    1791

    文章

    47229

    浏览量

    238340

原文标题:光电智能计算

文章出处:【微信号:bdtdsj,微信公众号:中科院半导体所】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    光电倍增管中子直照响应实验研究

    院HI-13串列加速器上,利用9Be(d,n)10B反应白光中子源,实验研究光电倍增管对0.75~15MeV之间的出射中子直照灵敏度。根据光电倍增管的工作原理,采用MCNP程序模拟计算
    发表于 04-22 11:49

    采用光电传感器的智能车控制研究

    采用光电传感器的智能车控制研究
    发表于 08-20 13:05

    CPU、架构、指令集与芯片的关系与区别

    随着智能设备的广泛普及,这几年媒体上越来越多的出现关于“架构”“ARM vs x86”“芯片研发”的相关内容。很多消费者和爱好者面对这些以往不太常见的信息时就会迷惑甚至产生误解。其中一组比较容易被
    发表于 07-29 08:34

    集成光电智能探测器SOC研究

    集成光电智能探测器SOC研究王旭(北京地太科特电子技术有限公司,北京 100102)摘要:本文研究了一种新型的硅光电探测器(即
    发表于 12-19 08:19 11次下载

    基于云计算架构模型研究

    为了构建有效、稳定的云计算平台环境并对其应用性能进行研究,采用理论分析和实践设计的方法,研究了云计算的关键技术,包括云数据中心串联、云数据存储管理技术和云编程模型,提出了- 一个通用的
    发表于 10-11 16:25 4次下载
    基于云<b class='flag-5'>计算</b>的<b class='flag-5'>架构</b>模型<b class='flag-5'>研究</b>

    可重构计算架构将引领未来芯片的市场发展

    AI芯片创业公司清微智能首款可重构计算架构AI芯片实现量产的消息在业内迅速传开,可重构计算
    的头像 发表于 12-16 15:55 3217次阅读

    自主研发的多核智能计算架构研究 解析

    、新算法层出不穷、计算模型不断变化, 为处理器体系结构设计带来巨大的设计空间。 人工智能处理器体系结构设计目前存在着两种类型设计: 以TPU [1]为代表的专用架构和以GPU [2,3]为代表的通用
    发表于 07-08 11:37 1435次阅读

    曦智研究院发布光电混合计算系列白皮书,以大规模光电集成构建算力网络新范式

    近日,全球光电混合计算领军企业曦智科技宣布,其下属的曦智研究院(下称“研究院”)正式对外发布围绕“光电混合
    发表于 03-09 13:49 1367次阅读

    芯驰科技全场景车规芯片赋能中央计算架构

    邀出席并发表《全场景车规芯片赋能中央计算架构》主题演讲,分享芯驰对于未来智能汽车中央计算架构的思
    的头像 发表于 06-20 10:22 799次阅读
    芯驰科技全场景车规<b class='flag-5'>芯片</b>赋能中央<b class='flag-5'>计算</b><b class='flag-5'>架构</b>

    人工智能芯片的工作原理、常用架构和主要材料

      人工智能芯片是一种专门设计用于人工智能(AI)应用的芯片。相比于传统的通用处理器芯片,人工智能
    发表于 08-24 17:05 6181次阅读

    芯片架构计算任务改变对计算架构的需求

    渐进式改进与性能的巨大飞跃相结合,虽然这些改进将计算和分析能力提升到全新水平,但也需要全新的权衡考虑。这些变革的核心在于高度定制的芯片架构芯片是在最先进的工艺节点开发的。
    发表于 09-27 14:30 1124次阅读
    <b class='flag-5'>芯片</b><b class='flag-5'>架构</b><b class='flag-5'>计算</b>任务改变对<b class='flag-5'>计算</b><b class='flag-5'>架构</b>的需求

    清华大学开发出超高速光电计算芯片,性能是商用芯片的3000倍!

    针对这一难题,清华大学自动化系戴琼海院士、吴嘉敏助理教授与电子工程系方璐副教授、乔飞副研究员联合攻关,提出了一种“挣脱”摩尔定律的全新计算架构光电模拟
    的头像 发表于 10-31 18:00 1340次阅读
    清华大学开发出超高速<b class='flag-5'>光电</b><b class='flag-5'>计算</b><b class='flag-5'>芯片</b>,性能是商用<b class='flag-5'>芯片</b>的3000倍!

    清华研制出首个全模拟光电智能计算芯片ACCEL

    清华研制出首个全模拟光电智能计算芯片ACCEL 清华大学研究团队研制出国际首个全模拟光电
    的头像 发表于 11-05 18:10 1320次阅读

    中国研制出全球首个全模拟光电智能计算芯片

    经长期联合攻关,清华大学研究团队突破传统芯片的物理瓶颈,创造性提出光电融合的全新计算框架,并研制出国际首个全模拟光电
    的头像 发表于 12-04 17:39 1208次阅读

    什么是光电量子计算芯片

    什么是光电量子计算芯片光电量子计算芯片,也被称为光子量子
    的头像 发表于 01-09 14:42 921次阅读