0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

人工智能需要强大的计算能力,光芯片有帮助吗?

颖脉Imgtec 2024-05-24 08:27 次阅读

本文由半导体产业纵横(ID:ICVIEWS)编译自quantamagazine


光学神经网络使用光子而不是电子,比传统系统具有优势。摩尔定律已经相当快了。它认为,计算机芯片每两年左右就会安装两倍数量的晶体管,从而在速度和效率上产生重大飞跃。但深度学习时代的计算需求增长速度甚至更快——这种速度可能不可持续。国际能源署预测,2026年人工智能消耗的电力将是2023年的10倍。计算硬件公司Lightmatter的创始人兼首席执行官尼克·哈里斯 (Nick Harris)表示,人工智能所需的算力每3个月就会翻一番,速度远远快于摩尔定律的预测。最有前途的方法之一是不使用可靠的电子来处理信息,而是使用光子流。最近的结果表明,对于现代人工智能的某些基础计算任务,基于光的“光学计算机”可能具有优势。剑桥大学物理学家纳塔利娅·贝尔洛夫表示,光计算的发展“为人工智能等需要高速、高效处理的领域的突破铺平了道路” 。

理论上,光提供了诱人的潜在好处。其一,光信号比电信号可以携带更多信息——它们有更多的带宽。光频率也比电频率高得多,因此光系统可以在更短的时间内以更少的延迟运行更多的计算步骤。然后是效率问题。除了相对浪费的电子芯片造成的环境和经济成本之外,它们的运行温度也非常高,以至于只有一小部分晶体管(所有计算机核心的微小开关)可以随时处于活动状态。理论上,光学计算机可以同时进行更多操作,在消耗更少能源的同时处理更多数据。斯坦福大学电气工程师戈登·韦茨斯坦(Gordon Wetzstein ) 表示,“如果我们能够利用”这些优势,“这将带来许多新的可能性。”看到潜在的优势,研究人员长期以来一直尝试将光用于人工智能这个计算需求量很大的领域。例如,在 20 世纪 80 年代和 90 年代,研究人员使用光学系统构建了一些最早的神经网络。Demetri Psaltis 和加州理工学院的两名同事使用这些早期光学神经网络 (ONN) 之一创建了一个巧妙的面部识别系统。他们将一个受试者(实际上是研究人员之一)的图像作为全息图存储在光折变晶体中。研究人员使用全息图来训练 ONN,然后 ONN 可以识别研究人员的新图像并将他与同事区分开来。但光也有缺点,光子通常不会相互作用,因此一个输入信号很难控制另一个信号,而这正是普通晶体管的优势。现在,它们已被放置在数十亿枚硬币大小的芯片上,这是数十年渐进式改进的产物。

近年来,研究人员发现了光学计算的杀手级应用:矩阵乘法。


一些简单的数学

矩阵或数字数组相乘的过程是大量重型计算的基础。具体来说,在神经网络中,矩阵乘法是如何在旧数据上训练网络以及如何在经过训练的网络中处理新数据的基本步骤。光可能是比电更好的矩阵乘法媒介。

这种人工智能计算方法在 2017 年爆发,当时麻省理工学院的 Dirk Englund 和 Marin Soljačić 领导的团队描述了如何在硅芯片上构建光学神经网络。研究人员将他们想要相乘的各种量编码成光束,然后将光束发送通过一系列改变光束相位(光波振荡方式)的组件,每个相位改变代表一个乘法步骤。通过反复分裂光束、改变相位、重新组合,可以使光有效地进行矩阵乘法。在芯片的末端,研究人员放置了光电探测器来测量光束并揭示结果。研究人员教他们的实验设备识别口语元音,这是神经网络的常见基准任务。凭借光的优势,它可以比电子设备更快、更有效地完成这一任务。其他研究人员已经知道光有利于矩阵乘法;2017 年的论文展示了如何将其付诸实践。

康奈尔大学光子学专家Peter McMahon表示,这项研究“激起了人们对 ONN 的巨大兴趣,那个人影响力非常大。”


聪明的想法

自 2017 年发表论文以来,随着各种研究人员提出了新型光学计算机,该领域取得了稳步进展。Englund 和几位合作者最近推出了一种名为 HITOP 的新型光网络,该网络结合了多项先进技术。最重要的是,它的目标是随着时间、空间和波长的增加计算吞吐量。前麻省理工学院博士后、现任职于南加州大学的Zaijun Chen表示,这有助于 HITOP 克服光学神经网络的缺点之一:将数据从电子元件传输到光学元件需要大量能量,反之亦然。但Zaijun Chen说,通过将信息打包到光的三个维度中,它可以更快地通过 ONN 推送更多数据,并将能源成本分散到许多计算中。这降低了每次计算的成本。研究人员报告说,HITOP 可以运行比以前基于芯片的 ONN 大 25,000 倍的机器学习模型。

需要明确的是,该系统仍远不能与其电子前辈相媲美。Chen表示,HITOP 每秒执行约 1 万亿次运算,而先进的 Nvidia 芯片可以处理 300 倍的数据,他希望扩大该技术的规模,使其更具竞争力。但光学芯片的效率却非常引人注目。“这里的游戏是我们将能源成本降低了 1,000 倍,”Chen说。其他小组已经创建了具有不同优势的光学计算机。去年,宾夕法尼亚大学的一个团队描述了一种新型 ONN,它提供了不同寻常的灵活性。这种基于芯片的系统将激光照射到构成电子芯片的半导体部分上,从而改变半导体的光学特性。激光有效地映射了光信号的路径,从而完成了它执行的计算。这使得研究人员可以轻松地重新配置系统的功能。这与大多数其他基于芯片的系统(光学和电子系统)有着明显的区别,在这些系统中,路线是在制造工厂中仔细制定的,并且很难改变。该研究的主要作者吴天伟说:“我们所拥有的东西非常简单。我们可以重新编程,动态改变激光图案。”研究人员利用该系统设计了一个成功区分元音的神经网络。大多数光子系统在构建之前都需要进行训练,因为训练必然涉及重新配置连接。但由于该系统很容易重新配置,研究人员在将模型安装到半导体上后对其进行了训练。他们现在计划增加芯片的尺寸,并用不同颜色的光编码更多信息,这应该会增加它可以处理的数据量。

即使是在 90 年代创建面部识别系统的 Psaltis 也对这一进步感到印象深刻。“与实际发生的事情相比,我们 40 年前最疯狂的梦想显得非常渺小。”


第一缕曙光

虽然光学计算在过去几年中发展迅速,但它还远未取代实验室外运行神经网络的电子芯片。论文宣布光子系统比电子系统效果更好,但它们通常使用旧的网络设计和较小的工作负载来运行小型模型。安大略省皇后大学的 Bhavin Shastri 表示,许多关于光子霸权的报道数据并没有说明全部情况。“很难与电子产品进行同类比较,”他说:“例如,当他们使用激光时,他们并没有真正谈论为激光供电的能量。”

实验室系统需要扩大规模才能显示出竞争优势。Bhavin Shastri 问道:“要把它做大到什么程度才能获胜?”答案是:非常大。这就是为什么没有人能与英伟达制造的芯片相媲美,英伟达的芯片为当今许多最先进的人工智能系统提供动力。在此过程中,需要解决大量的工程难题——电子方面已经解决了几十年的问题。麦克马洪说:“电子领域从一开始就具有巨大的优势。”一些研究人员认为,基于 ONN 的人工智能系统将首先在提供独特优势的专业应用中取得成功。Shastri 表示,一种有前途的用途是抵消不同无线传输之间的干扰,例如 5G 蜂窝塔和帮助飞机导航的雷达高度计。今年年初,Shastri 和几位同事创建了一个 ONN,可以整理不同的传输并实时挑选出感兴趣的信号,处理延迟低于 15 皮秒(15 万亿分之一秒)——不到千分之一电子系统所花费的时间,同时使用不到 1/70 的功率。

但Bhavin Shastri 表示,宏伟的愿景——一种可以超越通用电子系统的光学神经网络——仍然值得追求。去年,他的团队进行的模拟显示,十年内,足够大的光学系统可以使某些人工智能模型的效率比未来电子系统的效率提高 1000 倍以上。“现在很多公司都在努力争取1.5倍的收益。一千倍的好处,那就太神奇了。”他说:“如果成功的话,这可能是一个为期 10 年的项目。”

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 人工智能
    +关注

    关注

    1791

    文章

    46841

    浏览量

    237524
  • 光芯片
    +关注

    关注

    3

    文章

    95

    浏览量

    10872
  • 计算机芯片
    +关注

    关注

    0

    文章

    42

    浏览量

    3500
收藏 人收藏

    评论

    相关推荐

    嵌入式和人工智能究竟是什么关系?

    领域,如工业控制、智能家居、医疗设备等。 人工智能计算机科学的一个分支,它研究如何使计算机具备像人类一样思考、学习、推理和决策的能力
    发表于 11-14 16:39

    人工智能计算大数据三者关系

    人工智能、云计算与大数据之间的关系是紧密相连、相互促进的。大数据为人工智能提供了丰富的训练资源和验证环境;云计算为大数据和人工智能提供了
    的头像 发表于 11-06 10:03 210次阅读

    Orin芯片人工智能中的应用

    随着人工智能技术的飞速发展,对于高性能计算硬件的需求也在不断增长。NVIDIA作为全球领先的图形处理器(GPU)制造商,一直致力于为AI领域提供强大计算平台。Orin
    的头像 发表于 10-27 15:44 491次阅读

    《AI for Science:人工智能驱动科学创新》第6章人AI与能源科学读后感

    驱动科学创新》的第6章为我提供了宝贵的知识和见解,让我对人工智能在能源科学中的应用了更深入的认识。通过阅读这一章,我更加坚信人工智能在未来能源科学领域中的重要地位和作用。同时,我也意识到在推动
    发表于 10-14 09:27

    AI for Science:人工智能驱动科学创新》第4章-AI与生命科学读后感

    阅读这一章后,我深感人工智能与生命科学的结合正引领着一场前所未有的科学革命,以下是我个人的读后感: 1. 技术革新与生命科学进步 这一章详细阐述了人工智能如何通过其强大的数据处理和分析能力
    发表于 10-14 09:21

    《AI for Science:人工智能驱动科学创新》第一章人工智能驱动的科学创新学习心得

    人工智能:科学研究的加速器 第一章清晰地阐述了人工智能作为科学研究工具的强大功能。通过机器学习、深度学习等先进技术,AI能够处理和分析海量数据,发现传统方法难以捕捉的模式和规律。这不仅极大地提高了数据处理
    发表于 10-14 09:12

    人工智能计算是什么

    人工智能计算,简而言之,是指将人工智能技术与云计算平台相结合,利用云计算强大计算力、存储
    的头像 发表于 10-12 09:46 159次阅读

    risc-v在人工智能图像处理应用前景分析

    满足人工智能图像处理中对于高性能、低功耗和特定功能的需求。 低功耗 : 在人工智能图像处理中,低功耗是一个重要的考量因素。RISC-V架构的设计使其在处理任务时能够保持较低的功耗水平,这对于需要
    发表于 09-28 11:00

    名单公布!【书籍评测活动NO.44】AI for Science:人工智能驱动科学创新

    芯片设计的自动化水平、优化半导体制造和封测的工艺和水平、寻找新一代半导体材料等方面提供帮助。 第6章介绍了人工智能在化石能源科学研究、可再生能源科学研究、能源转型三个方面的落地应用。 第7章从环境监测
    发表于 09-09 13:54

    FPGA在人工智能中的应用哪些?

    定制化的硬件设计,提高了硬件的灵活性和适应性。 综上所述,FPGA在人工智能领域的应用前景广阔,不仅可以用于深度学习的加速和云计算的加速,还可以针对特定应用场景进行定制化计算,为人工智能
    发表于 07-29 17:05

    2024年十大顶尖的人工智能芯片制造供应商

    如下图所示,神经网络的参数数量(即宽度和深度)以及模型大小都在增加。为了构建更好的深度学习模型和强大人工智能应用程序,组织需要增加计算能力
    的头像 发表于 05-19 14:27 2928次阅读
    2024年十大顶尖的<b class='flag-5'>人工智能</b><b class='flag-5'>芯片</b>制造供应商

    5G智能物联网课程之Aidlux下人工智能开发(SC171开发套件V2)

    人工智能 工业检测:芯片模组外观检测实训part1 11分40秒 https://t.elecfans.com/v/25609.html *附件:芯片模组外观检测实训.pdf 人工智能
    发表于 05-10 16:46

    5G智能物联网课程之Aidlux下人工智能开发(SC171开发套件V1)

    https://t.elecfans.com/v/27186.html *附件:引体向上测试案例_20240126.pdf 人工智能 工业检测:芯片模组外观检测实训part1 11分40秒 https
    发表于 04-01 10:40

    人工智能芯片封装新篇章:先进技术的领航者

    随着人工智能(AI)技术的飞速发展,AI芯片作为支撑AI算法运行的核心硬件,其性能要求日益提高。为满足复杂AI算法的高效运行需求,AI芯片不仅需要具备
    的头像 发表于 03-14 09:35 716次阅读
    <b class='flag-5'>人工智能</b><b class='flag-5'>芯片</b>封装新篇章:先进技术的领航者

    嵌入式人工智能的就业方向哪些?

    嵌入式人工智能的就业方向哪些? 在新一轮科技革命与产业变革的时代背景下,嵌入式人工智能成为国家新型基础建设与传统产业升级的核心驱动力。同时在此背景驱动下,众多名企也纷纷在嵌入式人工智能
    发表于 02-26 10:17