0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

大规模人工智能(AI)处理器的功耗分析方法

天数智芯 来源:天数智芯 作者:天数智芯 2022-01-17 16:24 次阅读

近日,来自天数智芯公司Power团队的三位工程师阙诗璇、孙凌、甘振华合作发表的技术论文《左移:大规模人工智能(AI)处理器的功耗分析方法》顺利入选第58届(国际设计自动化会议,Design Automation Conference),并做poster presentation。

文章主要内容如下:

AI芯片最重要的设计指标之一就是单位功耗每瓦算力(TOPS/W),因此低功耗设计对于AI芯片的设计实现,在市场中具备竞争力都十分重要。然而原有的功耗分析方法存在一定的不足,对新的需求也无法满足:

1.原有方法只是对功能验证的场景,而缺乏真实的应用场景,跟真实的软件应用有一定的差距;

2.传统的功耗分析需要综合后的网表和门级的向量,这在项目早期很难获取,太晚介入会让功耗优化受限;

3.对于仿真时间长的向量,尤其是要按时间分析功耗时,所需的运行时间和资源都是巨大的;

4.自适应电压频率缩放等需要有实时的功耗才能进行软硬件控制,这是原有方法无法实现的;

5.为了抢占市场,需要更快的迭代设计,因此设计人员希望每周甚至每天都可以对低功耗功能进行验证,原有方法很难赶上验证迭代的速度;

为了解决这些挑战跟需求,天数智芯提出了一种创新的功耗分析方案:利用一种功耗分析工具对所给的仿真向量进行高性能的按时间分析功耗的分布,从而得到平均功耗和峰值功耗等参数。这种方法在RTL阶段就进行分析,有利于对AI处理器进行优化功耗的迭代,最终实现项目功耗目标。与之前的方法相比较,它在某些实验中,可以达到100甚至1000倍的加速。

接下来将展开描述该方案在实际工作中的一个应用:通过机器学习的训练得到实时功耗预测模型。

现在所用的新的功耗分析方法和原有的按时间分析网表的功耗分析方法,具有很好的相关一致性。所以利用它超高倍加速的分析能力,可以用于各种应用场景激励产生训练模型所需要的充足的数据集。当训练数据集达到百万甚至是上亿级别,通过机器学习算法得到的模型就比较准确。这是依赖新的分析方法才能得到的,传统的分析方法无法产生这么大的数据量。

我们用机器学习的算法对各个模块进行参数训练,从而得到最佳的预测模型,这样就可以用于预测实时功耗,从而实现软硬件的控制。

经过几天的训练,我们最终得到的预测模型与真实的功耗之间的误差只有不到5%。

总的来看,创新的功耗分析方法与传统流程相比,能在项目早期介入,所需要的运行时间跟内存消耗大大减少,可以在设计阶段进行快速的迭代。它不仅仅可以对原有的功能验证激励进行分析,对于原型验证的真实的应用场景向量也可以进行分析,从而得到更真实的功耗相关指标,且与项目最终签核时的数据具有一致性。利用它的快速和节省资源特性,能够为实时功耗的预测模型提供大量充足的数据样本,最终得到误差5%以内的预测模型。

关于DAC

DAC(国际设计自动化会议,Design Automation Conference)与ICCAD(国际计算机辅助设计会议,International Conference on Computer Aided Design)、DATE(欧洲设计自动化与测试学术会议,Design, Automation and Test in Europe)、ASP-DAC(亚太地区设计自动化会议,Asia and South Pacific Design Automation Conference)一起被公认为电子设计自动化领域水平最高的四大国际会议。

关于天数智芯

上海天数智芯半导体有限公司(简称“天数智芯”)于2018年正式启动7纳米通用并行(GPGPU)云端计算芯片设计,是中国第一家通用并行(GPGPU)云端计算芯片及高性能算力系统提供商。公司以“成为智能社会的赋能者”为使命,专注于云端服务器级的通用并行高性能云端计算芯片,瞄准以云计算、人工智能、数字化转型为代表的数据驱动技术市场,解决核心算力瓶颈问题。重点打造自主可控、国际一流的通用、标准、高性能云端计算GPGPU芯片,从芯片端解决算力问题。

原文标题:天数智芯技术论文入选第58届DAC

文章出处:【微信公众号:天数智芯】欢迎添加关注!文章转载请注明出处。

审核编辑:汤梓红

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 参数
    +关注

    关注

    11

    文章

    1783

    浏览量

    32081
  • 自动化
    +关注

    关注

    29

    文章

    5510

    浏览量

    79089
  • 人工智能
    +关注

    关注

    1791

    文章

    46840

    浏览量

    237512

原文标题:天数智芯技术论文入选第58届DAC

文章出处:【微信号:IluvatarCoreX,微信公众号:天数智芯】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    嵌入式和人工智能究竟是什么关系?

    人工智能应用的实时响应。与此同时,嵌入式系统在边缘计算和物联网领域,也为人工智能的应用提供了广阔的空间。 在边缘计算中,嵌入式系统能够将人工智能算法部署到设备端,实现对数据的即时处理
    发表于 11-14 16:39

    AI for Science:人工智能驱动科学创新》第6章人AI与能源科学读后感

    幸得一好书,特此来分享。感谢平台,感谢作者。受益匪浅。 在阅读《AI for Science:人工智能驱动科学创新》的第6章后,我深刻感受到人工智能在能源科学领域中的巨大潜力和广泛应用。这一章详细
    发表于 10-14 09:27

    AI for Science:人工智能驱动科学创新》第4章-AI与生命科学读后感

    阅读这一章后,我深感人工智能与生命科学的结合正引领着一场前所未有的科学革命,以下是我个人的读后感: 1. 技术革新与生命科学进步 这一章详细阐述了人工智能如何通过其强大的数据处理分析
    发表于 10-14 09:21

    AI for Science:人工智能驱动科学创新》第二章AI for Science的技术支撑学习心得

    人工智能在科学研究中的核心技术,包括机器学习、深度学习、神经网络等。这些技术构成了AI for Science的基石,使得AI能够处理分析
    发表于 10-14 09:16

    AI for Science:人工智能驱动科学创新》第一章人工智能驱动的科学创新学习心得

    人工智能:科学研究的加速 第一章清晰地阐述了人工智能作为科学研究工具的强大功能。通过机器学习、深度学习等先进技术,AI能够处理
    发表于 10-14 09:12

    risc-v在人工智能图像处理应用前景分析

    长时间运行或电池供电的设备尤为重要。 高性能 : 尽管RISC-V架构以低功耗著称,但其高性能也不容忽视。通过优化指令集和处理器设计,RISC-V可以在处理复杂的人工智能图像
    发表于 09-28 11:00

    人工智能ai 数电 模电 模拟集成电路原理 电路分析

    人工智能ai 数电 模电 模拟集成电路原理 电路分析 想问下哪些比较容易学 不过好像都是要学的
    发表于 09-26 15:24

    人工智能ai4s试读申请

    目前人工智能在绘画对话等大模型领域应用广阔,ai4s也是方兴未艾。但是如何有效利用ai4s工具助力科研是个需要研究的课题,本书对ai4s基本原理和原则,
    发表于 09-09 15:36

    名单公布!【书籍评测活动NO.44】AI for Science:人工智能驱动科学创新

    ! 《AI for Science:人工智能驱动科学创新》 这本书便将为读者徐徐展开AI for Science的美丽图景,与大家一起去了解: 人工智能究竟帮科学家做了什么?
    发表于 09-09 13:54

    报名开启!深圳(国际)通用人工智能大会将启幕,国内外大咖齐聚话AI

    8月28日至30日,2024深圳(国际)通用人工智能大会暨深圳(国际)通用人工智能产业博览会将在深圳国际会展中心(宝安)举办。大会以“魅力AI·无限未来”为主题,致力于打造全球通用人工智能
    发表于 08-22 15:00

    处理器人工智能方面的应用

    处理器人工智能AI)方面的应用日益广泛且深入,成为了推动AI技术发展的重要力量。本文将从微处理器
    的头像 发表于 08-22 14:21 825次阅读

    FPGA在人工智能中的应用有哪些?

    以承担机器人路径规划、环境感知、运动控制等任务,结合外部传感的反馈信息,实现高效、准确的机器人控制系统。 四、优势总结 高并行性:FPGA的高并行性使其在处理大规模并行运算时具有显著优势,能够显著提高
    发表于 07-29 17:05

    NanoEdge AI的技术原理、应用场景及优势

    NanoEdge AI 是一种基于边缘计算的人工智能技术,旨在将人工智能算法应用于物联网(IoT)设备和传感。这种技术的核心思想是将数据处理
    发表于 03-12 08:09

    瑞萨发布下一代动态可重构人工智能处理器加速

    瑞萨最新发布的动态可重构人工智能处理器(DRP-AI)加速,在业界引起了广泛关注。这款加速拥有卓越的10 TOPS/W高功率效率,相比传
    的头像 发表于 03-08 13:45 719次阅读

    嵌入式人工智能的就业方向有哪些?

    。 国内外科技巨头纷纷争先入局,在微软、谷歌、苹果、脸书等积极布局人工智能的同时,国内的BAT、华为、小米等科技公司也相继切入到嵌入式人工智能的赛道。那么嵌入式AI可就业的方向有哪些呢? 嵌入式
    发表于 02-26 10:17