电子发烧友网报道(文/李宁远)自1965年戈登摩尔提出摩尔定律以后,半导体行业在摩尔定律上已经繁荣发展了半个多世纪。芯片,已经成为时代发展的重要引擎。但随着晶体管尺寸逐渐逼近物理极限,近年来摩尔定律发展已放缓,甚至面临失效无法延续,需要建立新的芯片秩序。
而且在现在的人工智能时代,算力是无法替代的先进生产力,是人工智能、大数据、物联网等先进技术落地应用的基础支撑,而国内正处在高端算力芯片供应链被封锁的形势。如何绕开专利、技术被封锁的束缚,找出一条新的道路来也是至关重要。
与现有高端GPU相比,实现了算力提升三千余倍,能效提升四百万余倍的表现,ACCEL光电计算芯片为超高性能芯片的研发开辟了全新的路径。
ACCEL架构光电计算实现高速视觉处理性能飞跃
现在我们使用的各种设备和系统,绝大多数通过晶体管以电信号来进行计算,以现在市面上用于人工智能算力芯片内集成的晶体管数量已经以百亿、千亿来算。这些晶体管操纵电流实现超大规模的计算。
人工智能算力正在崛起成为刚需,而摩尔定律正在衰落,寻找新兴技术革新硬件计算是目前前沿科技的一大技术热点。量子计算、神经形态芯片、光子计算等都是有可能实现计算性能飞跃的技术路线,光子计算是其中有力的竞争者,近期ACCEL光电计算芯片的突破也印证了这一技术路线的可行性。
面向高速视觉任务的纯模拟光电计算芯片基于光电深度融合计算框架,将光芯片与电芯片结合,在一枚芯片上突破大规模计算单元集成、高效非线性、高速光电接口三个国际难题,由清华大学自动化系(戴琼海院士、吴嘉敏助理教授)与电子工程系(方璐副教授、乔飞副研究员)联合攻克。
不同于传统计算,光子计算不是通过将电流表示成0和1来编码和操作数据,而是利用光的物理特性来进行计算。光子计算使用光,这使得它更快、更有效、更紧凑。光子计算的确能够更快、更节能地处理视觉数据。
因此,清华大学团队提出了一种结合电子和光计算(ACCEL)的全模拟芯片架构,将衍射光学模拟计算(OAC)和电子模拟计算(EAC)融合在一个芯片中,具有可扩展性、非线性和灵活性。根据论文数据,其系统能效为74.8Peta-OPS/W,计算速度为4.6Peta-OPS,而且计算的99%都由光学部分实现。
不论是系统能效还是计算速度,和现在最先进的计算处理相比,ACCEL都有着数量级上绝对的领先。
具体来说,ACCEL的系统级算力稳定达到现有高性能芯片的数千倍,同时系统级能效较现有的高性能 GPU、TPU、光计算和模拟电计算架构,提升了两千到数百万倍不等。
对于视觉数据来说,ACCEL无疑让处理性能实现了飞跃,也表明了“挣脱”摩尔定律的全新计算架构的可行性。
全新颠覆性计算架构,助力***领域弯道超车
ACCEL架构光芯片与电芯片的融合性能的大幅提升已经被证实,而且该芯片光学部分的加工最小线宽仅采用百纳米级,而电路部分仅采用180nm CMOS工艺。如果采用更先进的工艺技术,ACCEL能进一步大幅降低更高时钟频率下运行的控制单元功耗。
成熟的工艺却实现了超越先进制程GPU的性能,未来光子计算的霸权或许不是说说而已。
根据清华团队的说法,如果将OAC层数进一步提高,ACCEL的性能将进一步提高,实现灵敏度更高的光电二极管阵列并行输出。增加SRAM位数将进一步拓展ACCEL可分类的视觉类别数量。其未来的发展还有很大的提升空间。
更高算力和更优秀的能耗比只是ACCEL两个最直观的特点,在论文中,还披露了大量技术细节。
ACCEL将衍射光学计算作为光学编码器进行特征提取后,诱导光电流直接用于进一步计算,无需模数转换器。在同一任务不同类型的数字神经网络的端到端延迟和能耗对比中,ACCEL实现了每帧72 ns的超低计算延迟和每帧4.38 nJ的能耗,远小于NVIDIA A100的每帧0.26 ms延迟和每帧18.5 mJ的能耗。
论采用哪种方式计算操作,在实际应用中实现相同精度时,ACCEL与先进GPU上的数字神经网络相比,全模拟的ACCEL都能将系统延迟和能耗降低了几个数量级。
可以说ACCEL的全新计算架构,极具颠覆性,绕过了模拟数字转换器速度、精度与功耗相互制约的物理瓶颈,充分利用了光电技术的优势,芯片实现了计算效率和能耗的极致优化。大量的实验数据对比也打消了人们对光子计算算力“有效性”的顾虑。
虽然这一技术目前还只是停留在实验室阶段,但从实际应用价值来看,这一成果对于推动芯片技术进步、降低能耗和提高计算效率具有重要意义。在国内先进制程面临制约的情况下,清华大学团队在颠覆性计算架构取得的成果给我国高性能芯片研发开辟了一条全新的路径,是打破芯片专利、技术封锁的一个方向。
光电芯片在量产后,也足够颠覆现在的半导体格局,也将在未来实际应用落地后推动人工智能等领域的创新与发展。
小结
目前,该团队正在研究规模更大、算力更强的模拟域光电融合系统,这需要在算法层面和硬件层面,开展更高层次的联合设计优化。目标应用也拓展至和高速处理相关的领域,如时延降低四个数量级的超高速图像计算、自动驾驶、野外监测、物联网传感器网络等等。
采用全新原理研发出计算芯片需要越过很多难关,不可能一蹴而就,但ACCEL的出现也意味着新一代计算架构时代的来临可能会比料想中的更早。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
-
光电
+关注
关注
8文章
728浏览量
81589 -
gpu
+关注
关注
28文章
4661浏览量
128528
发布评论请先 登录
相关推荐
如何提高GPU性能
学习和机器学习等领域发挥着重要作用。 1. 硬件升级 a. 更换高性能GPU 最直接的提高GPU性能的方法是升级到更高性能的显卡。随着技术的
【「算力芯片 | 高性能 CPU/GPU/NPU 微架构分析」阅读体验】--全书概览
、GPU、NPU,给我们剖析了算力芯片的微架构。书中有对芯片方案商处理器的讲解,理论联系实际,使读者能更好理解算力芯片。
全书共11章,
发表于 10-15 22:08
名单公布!【书籍评测活动NO.43】 算力芯片 | 高性能 CPU/GPU/NPU 微架构分析
和像素统一的G80到现在重金难求的H100;AMD的Zen系列CPU和RDNA系列GPU两线作战;中国的高性能计算芯片逐步获得更多TOP50
发表于 09-02 10:09
IaaS+on+DPU(IoD)+下一代高性能算力底座技术白皮书
,在其上挂载了各种计算、存储资源的节点,对于系统的资源弹性、运行效率、性能都大有益处。但是这种使用方式的变化,需要对现有云计算架构进行一定程
发表于 07-24 15:32
美光科技发布新一代GDDR7显存
在近日举行的台北国际电脑展上,美国存储芯片巨头美光科技正式发布了其新一代GDDR7显存。这款新型GPU显卡内存基于美光的1βDRAM架构,将
进一步解读英伟达 Blackwell 架构、NVlink及GB200 超级芯片
2024年3月19日,[英伟达]CEO[黄仁勋]在GTC大会上公布了新一代AI芯片架构BLACKWELL,并推出基于该架构的超级芯片GB20
发表于 05-13 17:16
英伟达发布新一代AI芯片架构Blackwell GPU
近日,英伟达首席执行官黄仁勋在GTC 2024会议上发表主题演讲,重磅推出全新AI芯片架构Blackwell GPU。这一创新技术的首款芯片
FPGA在深度学习应用中或将取代GPU
,并在运算速度和吞吐量方面提供了更高的性能。它们的使用寿命也更长,大约是 GPU 的 2-5 倍,并且对恶劣环境和其它特殊环境因素有更强的适应性。
有一些公司已经在他们的人工智能产品中
发表于 03-21 15:19
英伟达最新一代AI芯片Blackwell GPU,AI算力能力较上代提升30倍!
黄仁勋说:"我们已经来到了一个临界点,因此需要一种新的计算方式来加速整个行业的发展效率。那么英伟达能够做什么?当然,答案就是——更大的芯片。”接着,英伟达
NVIDIA将在今年第二季度发布Blackwell架构的新一代GPU加速器“B100”
根据各方信息和路线图,NVIDIA预计会在今年第二季度发布Blackwell架构的新一代GPU加速器“B100”。
光电智能计算架构和芯片研究
当前,人工智能技术的复兴正引领着新一代信息技术迅猛发展,由电子驱动的计算处理器在过去十年中发生了巨大的变化,从通用中央处理器(CPU)到定制计算平台,例如GPU、FPGA和ASIC,以
中国研制出全球首个全模拟光电智能计算芯片
经长期联合攻关,清华大学研究团队突破传统芯片的物理瓶颈,创造性提出光电融合的全新计算框架,并研制出国际首个全模拟光电智能计算
清华研制出首个全模拟光电智能计算芯片ACCEL
是已完成了原理样片。 清华大学研究团队提出光电融合的全新计算框架:结合基于电磁波空间传播的光计算,与基于基尔霍夫定律的全模拟电子计算,在一枚
评论