0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

新的数字表示方法将减轻AI数学计算负担

中科院半导体所 来源:悦智网 2023-02-24 11:27 次阅读

训练支撑许多现代人工智能AI)工具的大型神经网络都需要真实强大的计算能力。例如,OpenAI最先进的语言模型GPT-3训练就需要惊人的10亿亿次运算,其计算时间耗资约500万美元。工程师们认为他们已经找到了一种方法,通过使用不同的方式表示数字,进而减轻计算负担。

早在2017年,当时在A*STAR计算资源中心和新加坡国立大学就职的约翰•古斯塔夫森(John Gustafson)以及在星际机器人电脑公司任职的艾萨克•约莫托(Isaac Yonemoto)就开发了一种新的数字表示方法。这些数字称为“posit”,他们提议将这些数字作为对目前使用的标准浮点算数处理器的改进表示。

现在,马德里康普顿斯大学的一个研究团队开发了首个可在硬件中实现posit标准的处理器内核,并表明,与使用标准浮点数字计算相比,基本计算任务的位对位(bit-for-bit)精度提高了4个数量级。他们在2022年9月的IEEE计算机算数研讨会上发表了其研究结果。

“如今,摩尔定律似乎已开始衰落。”康普顿斯大学ArTeCS小组的研究生研究员大卫•马拉森•金塔纳(David Mallasén Quintana)说,“所以我们需要找到其他方法来提高机器的性能。其中一种方法就是改变我们的实数编码方式,以及如何表示实数。”

用数字表示方法来突破极限的并非只有康普顿斯团队。早在2022年9月,Arm英特尔英伟达就形成了一项技术规范,在机器学习应用程序中,使用8位浮点数字替代通常的32位或16位浮点数字,即使用短小、低精度的格式,以降低计算精度为代价,提高计算效率和内存使用率。

实数不能在硬件中完美表示,因为实数的数量是无限的。为了适应指定的位数,许多实数必须四舍五入。posit的优势在于,这种方法表示数字的精度是沿着数轴分布的。在数轴中间,1和-1周围,posit表示的精度比浮点的高。在数轴两翼会逐渐出现较大的负数和正数,posit精度比浮点下降得更平稳。

古斯塔夫森说:“这与数字在计算中的自然分布相吻合。动态范围是合适的,在需要更高精度时,它的精度可以满足需求。浮点运算中有很多从来没有用过的位串,这是一种浪费。”

posit之所以能实现1和-1周围精度的提高,是因为该表示方法有一个额外组成部分。浮点数由3个部分组成:一个符号位(0为正,1为负),几个“尾数”(小数)位表示二进制小数点后面的数,其余的位用来定义指数(2exp)。

posit保留了浮点数的所有组成部分,但添加了一个额外的“regime”部分,即指数的指数。regime的优点在于它的位长度可以变化。对于较小的数字,它可以只需要2位,为尾数留下更高的精度。这样posit可以在1和-1周围的“甜蜜点”位置实现更高的精度。

深度神经网络通常使用被称为权重的归一化参数,因此它们是从posit获益的完美候选者。许多神经网络计算都由乘积累加运算组成。每次执行这种计算,每个求和都必须再次截断,导致精度损失。采用posit,一个名为quire的专用寄存器能够有效地执行累加步骤,减少精度损失。但目前的硬件应用的是浮点,而且到目前为止,在软件中使用posit带来的计算收益在很大程度上被格式转换的损耗掩盖了。

0407a83c-b372-11ed-bfe3-dac502259ad0.jpg

使用他们用现场可编程门阵列(FPGA)合成的新硬件,康普顿斯团队对32位浮点和32位posit的计算进行并列比较。

该团队还将结果与更精确但计算成本较高的64位浮点格式的结果进行比较,对结果的精度进行评估。对于矩阵乘法(神经网络训练中固有的一连串乘积累加)的精度,posit比浮点运算惊人地提高了4个数量级。

该团队还发现,提高精度并没有以计算时间为代价,只是芯片使用面积和功耗略有增加。

尽管提高数字精度是不可否认的,但确切地说,它对训练GPT-3等大型AI有怎样的影响还有待观察。

马拉森说:“posit可能会提高训练速度,因为在训练的过程中不会丢失太多信息。但这些事我们还不知道。有人已经在软件中试过了,现在也要在我们的硬件中试一下。”

其他团队正在研究实现自己的硬件,促进posit的使用。“这正是我所希望的,它被疯狂地接受了。”古斯塔夫森说,“posit数字格式爆火,正在使用posit的有几十个团队,公司和大学的团队都有。”





审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 处理器
    +关注

    关注

    68

    文章

    19225

    浏览量

    229531
  • 人工智能
    +关注

    关注

    1791

    文章

    47059

    浏览量

    238041
  • 深度神经网络

    关注

    0

    文章

    61

    浏览量

    4523
  • OpenAI
    +关注

    关注

    9

    文章

    1068

    浏览量

    6452

原文标题:新的数字表示方法将改进AI数学运算

文章出处:【微信号:bdtdsj,微信公众号:中科院半导体所】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    智慧交通AI监控视频分析应用方案

    随着社会的进步和科技的不断发展,互联网技术和AI视觉分析技术日益成熟,为传统交通监控领域带来了新的发展机遇。AI视觉分析技术的引入,不仅提升了交通监控的智能化和自动化水平,还显著减轻了交管部门的工作
    的头像 发表于 11-29 14:12 129次阅读
    智慧交通<b class='flag-5'>AI</b>监控视频分析应用方案

    使用 AMD Versal AI 引擎释放 DSP 计算的潜力

    “Versal AI 引擎可以在降低功耗预算的情况下提高 DSP 计算密度,”高级产品营销经理 Udayan Sinha 表示。这种效率使 Versal AI 引擎能够在严格的功耗预算
    的头像 发表于 11-29 14:07 382次阅读

    《算力芯片 高性能 CPUGPUNPU 微架构分析》第3篇阅读心得:GPU革命:从图形引擎到AI加速器的蜕变

    CPU、GPU的演进历程,AI专用芯片或引领未来计算平台的新方向。正如爱因斯坦所说:\"想象力比知识更重要\" —— 在芯片设计领域,创新思维带来的突破往往令人惊叹。
    发表于 11-24 17:12

    NVIDIA与德勤共同部署适用于医疗健康的数字AI智能体

    渥太华医院使用 NVIDIA AI 驱动的德勤 Frontline AI Teammate 来部署 AI 助手,以提供更好的患者体验并减轻管理负担
    的头像 发表于 11-13 11:37 333次阅读

    AI for Science:人工智能驱动科学创新》第二章AI for Science的技术支撑学习心得

    计算的结合 我深刻体会到高性能计算(HPC)在AI for Science中的重要性。传统的科学计算往往面临计算量大、
    发表于 10-14 09:16

    数字信号包括哪些 数字信号的特点是什么

    数字表示信号,如4进制、8进制等。 模拟信号的数字表示模拟信号通过采样、量化和编码转换为数字信号。 脉冲编码调制(PCM)信号 :
    的头像 发表于 08-11 10:44 1836次阅读

    神经网络在数学建模中的应用

    数学建模是一种利用数学方法和工具来描述和分析现实世界问题的过程。神经网络是一种模拟人脑神经元结构和功能的计算模型,可以用于解决各种复杂问题。在数学建模中,神经网络可以作为一种有效的工具
    的头像 发表于 07-02 11:29 893次阅读

    科学计算的下一轮创新,AI超算与数字孪生

    应用的行列中来。   AI 超算与数字孪生   在过去通用计算负载的时代,我们难以采用更大规模的计算集群来打造数字孪生。可随着
    的头像 发表于 05-07 00:16 1988次阅读
    科学<b class='flag-5'>计算</b>的下一轮创新,<b class='flag-5'>AI</b>超算与<b class='flag-5'>数字</b>孪生

    请问DMA控制器可以减轻CPU负担吗?

    直接存储器访问 ( DMA )控制器,可以在内存和/或外设之间传输数据,而不需要 CPU 参与每次传输。合理利用 DMA 控制器,可以减轻CPU的负担
    的头像 发表于 03-28 09:41 680次阅读
    请问DMA控制器可以<b class='flag-5'>减轻</b>CPU<b class='flag-5'>负担</b>吗?

    NanoEdge AI的技术原理、应用场景及优势

    NanoEdge AI 是一种基于边缘计算的人工智能技术,旨在人工智能算法应用于物联网(IoT)设备和传感器。这种技术的核心思想是数据处理和分析从云端转移到设备本身,从而减少数据传
    发表于 03-12 08:09

    高通NPU和异构计算提升生成式AI性能 

    异构计算的重要性不可忽视。根据生成式AI的独特需求和计算负担,需要配备不同的处理器,如专注于AI工作负载的定制设计的NPU、CPU和GPU。
    的头像 发表于 03-06 14:15 761次阅读

    如何实现二进制和BCD码数据的相互转变?

    如何实现二进制和BCD码数据的相互转变? 二进制码是十进制数字表示为二进制数和十进制数的一种表示方法。在计算机系统中,二进制数是最基本的数
    的头像 发表于 02-18 14:51 3440次阅读

    【国产FPGA+OMAPL138开发板体验】(原创)5.FPGA的AI加速源代码

    计算进程 start : instd_logic;-- 开始信号,当AI说“开始做题”时,我们就行动起来 A_in: inmatrix_type; -- 输入矩阵A,就像一堆待解的数学谜题 B_in
    发表于 02-12 16:18

    什么是AI边缘计算AI边缘计算的特点和优势介绍

    随着人工智能的迅猛发展,AI边缘计算成为了热门话题。那么什么是AI边缘计算呢?简单来说,它是人工智能技术引入边缘
    的头像 发表于 02-01 11:42 860次阅读

    重塑数字生产力体系,生成式AI开启云计算未来新十年?

    AI重塑云计算底座
    的头像 发表于 12-21 13:58 306次阅读
    重塑<b class='flag-5'>数字</b>生产力体系,生成式<b class='flag-5'>AI</b><b class='flag-5'>将</b>开启云<b class='flag-5'>计算</b>未来新十年?