0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

模拟人工智能能否通过混合数字计算东山再起?

微云疏影 来源:Planet Analog 作者:JEAN-JACQUES (JJ) DEL 2023-12-06 17:11 次阅读

早在今年九月,我就写过一篇关于人工智能应用中的模拟计算的博客。那些机构正在努力以协同处理的形式使用模拟计算硬件和系统,以帮助解决数字电子技术在开发人工智能技术中存在的一些问题。我没有谈到的是模拟计算这一用例的进展程度,或者其他潜在的应用以及在复兴模拟计算上的努力。

截至目前,IBM已将重点放在模拟AI上,而Mythic AI则在寻求更多资金,以继续开发其模拟人工智能技术,并在可能的情况下推出商业解决方案。尽管Mythic AI确实有一款产品正在初步交付给某些特定客户,但Mythic AI的解决方案仅专用于边缘AI推理。该解决方案声称比目前的边缘人工智能推理数字解决方案更省电、更快速、更紧凑。

此外,Mythic的解决方案还声称可以进行一些额外的计算,尽管这些计算纯粹是用于神经网络操作。这些解决方案依靠存算一体(或存内计算)的模拟处理技术的优势,旨在提供比GPUCPUFPGA等数字计算设备更高效的矩阵向量乘法。

wKgZomVwOpSAcE72AALWZ3D_k-k300.png

图1 利用模拟计算引擎对人工智能模型进行优化、量化和再训练。来源:Mythic

尽管如此,这些解决方案仍然需要前端和后端的数字电路,以支持模拟人工智能芯片使用可接受的输入数据,并解决输出模拟处理的一些固有误差问题。这些解决方案单纯的针对边缘人工智能推理用例,似乎无法解决部署大规模人工智能的更大挑战。

模拟计算和内存的应用是有意义的,因为它解决了执行类似任务所需的数字系统在能效、计算速度和复杂性方面的普遍挑战。

新兴的模拟人工智能系统

除了边缘人工智能推理之外,模拟计算还有许多潜在应用,但几十年来这些应用在很大程度上被忽视了。少数研究人员正在公开致力于开发模拟计算系统,其中包括微软的一个部门最近的努力。

微软的模拟迭代机(AIM)是一种光学计算设备,旨在快速解决优化问题。具体来说,AIM的目标是高效解决广泛的二次无约束混合优化(QUMO)问题,并原生支持连续变量和二元变量的全对全连接。

在微软研究团队最新发表的论文中,研究人员声称他们的技术已经能够在室温下完全在模拟领域内解决金融交易结算问题,其精度比量子硬件更高。这是在AIM中通过使用存算一体和多个变量的空分复用表示以及梯度下降法等复杂算法来实现的。

哥伦比亚大学和麻省理工学院的研究人员也一直致力于开发模拟计算技术。这些研究人员正在致力于开发一种更通用的模拟计算机,利用数字接口使模拟计算机更方便用户使用。该研究小组开发的单片模拟计算机被设计为像FPGA一样可编程

初代芯片和第二代芯片包括用于积分、矩阵乘法、插值、滤波和函数发生器的模拟电路,这些电路通过模拟硬件可以更有效地开发。此外,这种模拟计算芯片对函数发生器采用了一种新颖的连续时间数字方法,该方法使用无时钟二进制信号,这些信号可以根据响应变化而不是以固定时钟间隔变化。

要实现这一点,需要专门的模数转换器数模转换器ADC/DAC)以及可以处理连续时间数字信号的数字存储器。从根本上说,该系统的工作原理是将无时钟二进制信号从模拟信号转换为数字信号,引用查找表中的值并将存储在内存中的值转换回模拟信号。这有利于模拟输入/模拟输出函数的生成。

这样做的主要好处是,该系统可以高效、快速地以相对较高的精度求解相当复杂的微分方程。尽管它的精度不如当今的数字硬件和算法,但对于某些情况来说,这种精度水平已经足够了。此外,这种模拟计算解决方案的开发时间和运行能耗仅为数字计算机的零头。

这样,模拟/数字协处理器就可以使用模拟计算机的结果来为数字计算机进一步处理提供一个起始解决方案。与通过纯数字迭代处理达到的起始相比,它的效率要高得多,资源消耗要少得多。

模拟/数字混合人工智能

在输入为近似值的情况下,这也可能是一种单步解决方案,例如机器学习(ML)、计算机视觉、生物信息学、机器控制、分子生物学和大数据集挖掘。然而,虽然利用模拟芯片可以实现更高水平的精度,但当前的方法需要更大的芯片面积(这种方法的模拟计算与芯片面积成正比)以及混合方法中更复杂的模拟处理技术。

由于这项工作大部分在20世纪70年代初就已停滞不前,因此在支持模拟计算技术的研究方面存在着巨大的差距。例如,有人建议采用晶圆级技术和全3D集成电路技术来制造高性能模拟计算芯片。然而,这些工艺极其昂贵,尽管它们可能取得超出当前超级计算机甚至量子计算机能力的结果。

举例说明:Tsividis建议在300mm晶圆上构建具有10万个积分器的模拟计算机,这样就可以创建一个包含10万个耦合一阶非线性动态方程的系统,或者一个更小的高阶方程组来进行模拟。通过这种方法,处理一个方程只需要几毫秒,并且只需要几十瓦的功率。

人们还在努力进一步改进这种模拟/数字混合计算方法。尽管关于该方法的信息不多,但Anabrid Gmbh公司正在讨论一种模拟计算芯片,以及它与以往的努力有何不同。

这家总部位于德国柏林的人工智能新贵正在销售一款开源模拟计算平台——The Analog Thing(THAT),这是一个硬件电位器和模拟硬件的组合,可用于简单计算和教育目的(图3)。它可以通过引线手动重新配置,并且似乎更像是一种模拟计算的教育工具。

这些早期产品和研究项目尚未产生可用于主流市场的集成模拟/数字混合或协处理器技术。然而,在模拟/数字混合技术因全数字计算而被抛弃近50年后,一些研究团队正在致力于开发模拟辅助或真正的协处理器技术。

这些团体押注于模拟计算的未来。即使目前投向人工智能的资金和资源的一小部分可以转用于模拟计算机的开发,模拟计算也有可能成为现实。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • IBM
    IBM
    +关注

    关注

    3

    文章

    1749

    浏览量

    74620
  • 神经网络
    +关注

    关注

    42

    文章

    4762

    浏览量

    100534
  • 人工智能
    +关注

    关注

    1791

    文章

    46845

    浏览量

    237526
收藏 人收藏

    评论

    相关推荐

    嵌入式和人工智能究竟是什么关系?

    领域,如工业控制、智能家居、医疗设备等。 人工智能计算机科学的一个分支,它研究如何使计算机具备像人类一样思考、学习、推理和决策的能力。人工智能
    发表于 11-14 16:39

    数字人和人工智能的结合

    数字人(Digital Humans)和人工智能(Artificial Intelligence,AI)的结合是一个前沿且快速发展的领域,它涉及到计算机图形学、机器学习、自然语言处理、心理学
    的头像 发表于 10-28 14:40 275次阅读

    《AI for Science:人工智能驱动科学创新》第6章人AI与能源科学读后感

    探讨了人工智能如何通过技术创新推动能源科学的进步,为未来的可持续发展提供了强大的支持。 首先,书中通过深入浅出的语言,介绍了人工智能在能源领域的基本概念和技术原理。这使得我对
    发表于 10-14 09:27

    《AI for Science:人工智能驱动科学创新》第一章人工智能驱动的科学创新学习心得

    人工智能:科学研究的加速器 第一章清晰地阐述了人工智能作为科学研究工具的强大功能。通过机器学习、深度学习等先进技术,AI能够处理和分析海量数据,发现传统方法难以捕捉的模式和规律。这不仅极大地提高了数据处理
    发表于 10-14 09:12

    risc-v在人工智能图像处理应用前景分析

    长时间运行或电池供电的设备尤为重要。 高性能 : 尽管RISC-V架构以低功耗著称,但其高性能也不容忽视。通过优化指令集和处理器设计,RISC-V可以在处理复杂的人工智能图像处理任务时表现出色。 三
    发表于 09-28 11:00

    人工智能ai 数电 模电 模拟集成电路原理 电路分析

    人工智能ai 数电 模电 模拟集成电路原理 电路分析 想问下哪些比较容易学 不过好像都是要学的
    发表于 09-26 15:24

    生成式人工智能的概念_生成式人工智能主要应用场景

    生成式人工智能(Generative Artificial Intelligence,简称GAI)是一种先进的人工智能技术,其核心在于利用计算机算法和大量数据来生成新的、具有实际价值的内容。这种技术能够
    的头像 发表于 09-16 16:05 1100次阅读

    人工智能ai4s试读申请

    目前人工智能在绘画对话等大模型领域应用广阔,ai4s也是方兴未艾。但是如何有效利用ai4s工具助力科研是个需要研究的课题,本书对ai4s基本原理和原则,方法进行描诉,有利于总结经验,拟按照要求准备相关体会材料。看能否有助于入门和提高ss
    发表于 09-09 15:36

    FPGA在人工智能中的应用有哪些?

    定制化的硬件设计,提高了硬件的灵活性和适应性。 综上所述,FPGA在人工智能领域的应用前景广阔,不仅可以用于深度学习的加速和云计算的加速,还可以针对特定应用场景进行定制化计算,为人工智能
    发表于 07-29 17:05

    人工智能神经网络系统的特点

    人工智能神经网络系统是一种模拟人脑神经网络结构和功能的计算模型,具有高度的自适应性、学习能力和泛化能力。本文将介绍人工智能神经网络系统的特点,包括其基本结构、工作原理、主要类型、学习算
    的头像 发表于 07-04 09:42 398次阅读

    人工智能人工神经网络有什么区别

    人工智能是一门研究如何使计算模拟人智能行为的学科。它起源于20世纪40年代,当时计算机科学家们开始尝试开发能够
    的头像 发表于 07-04 09:39 1035次阅读

    人工智能神经网络芯片的介绍

    : 概述 人工智能神经网络芯片是一种新型的处理器,它们基于神经网络的计算模型,通过模拟人脑神经元的连接和交互方式,实现对数据的高效处理。与传统的CPU和GPU相比,神经网络芯片具有更高
    的头像 发表于 07-04 09:33 582次阅读

    嵌入式人工智能的就业方向有哪些?

    嵌入式人工智能的就业方向有哪些? 在新一轮科技革命与产业变革的时代背景下,嵌入式人工智能成为国家新型基础建设与传统产业升级的核心驱动力。同时在此背景驱动下,众多名企也纷纷在嵌入式人工智能领域布局
    发表于 02-26 10:17

    AI算法的本质是模拟人智能,让机器实现智能

    电子发烧友网报道(文/李弯弯)AI算法是人工智能领域中使用的算法,用于模拟、延伸和扩展人的智能。这些算法可以通过机器学习、深度学习、强化学习等技术实现,并被广泛应用于语音识别、自然语言
    的头像 发表于 02-07 00:07 5613次阅读

    人工智能推动混合键合技术

    领域的领导企业Adeia战略副总裁Seung Kang博士表示,对计算能力的需求正在加速增长,需求将超过当前支撑当今高性能基础设施、平台和设备的芯片组技术的能力。 全球数字经济的各个垂直领域几乎都对人工智能的兴趣日益浓厚,预计将
    的头像 发表于 02-01 14:42 292次阅读