0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

中科院计算所等机构推出了世界首个完全由AI设计的CPU芯片

传感器技术 来源:新智元 2023-07-03 11:16 次阅读

中科院计算所等机构推出了世界首个完全由AI设计的CPU芯片,不仅比目前GPT-4所能设计的电路规模大了4000倍,而且性能也达到了与Intel 486相当的水平。

中科院计算所的处理器芯片全国重点实验室及其合作单位,用AI技术设计出了世界上首个无人工干预、全自动生成的CPU芯片——启蒙1号。 这颗完全由AI设计的32位RISC-V CPU,相比GPT-4目前所能设计的电路规模大4000倍,并可运行Linux操作系统,且性能堪比Intel 486。 而这项研究,更是有望颠覆传统的芯片设计流程!

0ca35858-192d-11ee-962d-dac502259ad0.png

论文地址:https://arxiv.org/pdf/2306.12456

世界首个AI全自动生成的CPU芯片

众所周知,CPU设计是一项非常挑战且耗费人力和资源的工作。 这通常需要由工程师团队编写代码(如Verilog、Chisel或C/C++等),然后在电子设计自动化(EDA)工具(如逻辑综合或高层次综合工具)的辅助下生成电路逻辑。 除此之外,工程师团队针对人工编写的代码,还需反复使用测试用例对其进行迭代的功能验证和性能/功耗优化。 然而,该过程极其复杂琐碎,通常需要上百人团队迭代数月或数年才能完成。以典型Intel CPU为例,超过500位工程师花了两年时间才完成整个设计过程[1]。

为了减少人力和资源投入,研究人员采用AI技术直接从测试用例的输入-输出(IO)自动生成CPU设计,无需工程师提供任何代码或自然语言描述。 该方法在5小时内生成了超过4,000,000个逻辑门的32位RISC-V CPU——启蒙1号(见图1),比目前GPT-4所能设计的电路规模大4000倍。

0cca1060-192d-11ee-962d-dac502259ad0.png

图1 启蒙1号芯片版图及实物图,其中CPU核部分完全由算法自动生成,芯片于2021年12月采用65nm工艺流片,运行频率300MHz

该CPU于2021年12月流片,回片后成功运行了Linux操作系统和SPEC CPU 2000程序,其性能与Intel 486 CPU相当(见图2)。 启蒙1号是世界上首个无人工干预、全自动生成的CPU芯片。该方法甚至自主地发现了包含控制器和运算器等在内的冯诺依曼架构,为后续发现人类未知的体系结构优化知识提供了参考。

0d167aa4-192d-11ee-962d-dac502259ad0.png

图2启蒙1号芯片可以成功运行Linux操作系统及性能对比(CPU-AI为启蒙1号)

全自动CPU设计:设计流程及挑战

与传统CPU设计流程中需要大量人工参与不同,研究人员考虑使用「输入-输出(IO)」作为输入,因为IO可以从大量现成的测试用例中直接获取或自动生成。 因此,可以将CPU自动设计问题形式化为「满足输入-输出规范的电路逻辑生成问题」。 这也使得传统的CPU设计流程发生了巨大变化:只需测试用例即可以直接生成满足功能需求的电路逻辑,摒弃了传统设计流程中非常耗时的、依赖人工的逻辑设计与验证环节(见图3)。

0d814ff0-192d-11ee-962d-dac502259ad0.jpg

图3 (a)传统的CPU设计流程包括耗时的逻辑设计与验证;(b)所提出的全自动CPU设计流程直接从IO生成保证功能正确的电路逻辑

然而,从IO生成满足规范的电路逻辑面临两大挑战: (1)规模挑战:在没有任何专家给出的形式化或非形式化电路描述时,设计空间大小等同于全部可能存在的电路设计。对于以IO描述的电路来说,一个典型RISC-V CPU的设计空间约为0defd04c-192d-11ee-962d-dac502259ad0.png;在如此巨大空间中找到功能正确的CPU超出了当前自动化设计方法的能力; (2)精度挑战:生成的目标电路逻辑必须要足够精确(例如功能验证准确率>99.99999999999%),否则任何微小错误都将造成巨大损失,这远远超过了传统AI算法和应用对精度的要求。

符号主义的重生:基于BSD的电路自动设计方法

针对前面所提到的挑战,不同于传统基于连接主义的深度学习方法,研究人员所提出的方法是基于对二元决策图(Binary Decision Diagram,BDD)进行扩展的二元猜测图(Binary Speculation Diagram, BSD)。 与传统的BDD构建依赖于形式化的描述不同,BSD使用常数0/1对BDD中的子图进行功能猜测。 在设计流程中,首先使用仅有1个节点的BSD作为对未知黑盒函数的初始估计,然后利用动态规划方法逐步增加BSD中的节点个数,从而丰富电路细节(见图4)。该工作理论上证明了随着BSD节点个数的增加,其电路准确率会逐步提升。

0df95f54-192d-11ee-962d-dac502259ad0.jpg

图4 具体的电路生成流程:从1个节点的BSD出发,逐步增加BSD中的节点个数以丰富电路细节

自主发现人类知识:蕴含冯诺依曼架构的CPU

此外,从IO自动生成的RISC-V CPU并不是杂乱无章的黑盒逻辑,而是蕴含了冯诺依曼架构的人类知识:由BSD表示的CPU设计包含了控制单元和运算单元(见图5)。 其中控制单元是由BSD的顶层生成,用于整个CPU的全局控制,而运算单元则完成算术和逻辑运算。 同时上述单元可以进一步分解为更细粒度的子模块,如译码器和ALU等,直到其最底层由基本的逻辑门构成。

0e1fe796-192d-11ee-962d-dac502259ad0.png

图5 自主发现冯诺依曼结构:启蒙1号中包含了控制单元和运算单元,同时可以进一步分解为更细粒度的子模块

对比与展望:不同人工智能路径的交叉探索

自动的电路逻辑设计长期以来都是计算机科学的核心问题之一[2]。 近年来随着人工智能技术的发展,也出现了一批基于行为主义和连接主义(如深度强化学习和GPT-4大语言模型等)的自动逻辑设计工作(见表1)。

0e2e303a-192d-11ee-962d-dac502259ad0.png

表1自动逻辑设计的代表工作对比情况 可以看出,相关工作主要聚焦于生成单个模块或小规模CPU,其规模与实际CPU芯片还有多个数量级的差距。 中科院计算所团队及其合作单位(包括中科院软件所、中科大、寒武纪公司等)所提出的方法生成了超过4,000,000个逻辑门的完整RISC-V CPU,相比目前GPT-4所能设计的电路规模大4000倍。 同时,该工作在符号主义的框架下从理论上保证了功能正确性,颠覆了传统流程中的逻辑设计和功能验证环节。 未来,通过符号主义、行为主义及连接主义等不同人工智能路径的交叉探索,自动生成的CPU有望在5年或10年内达到甚至超越人类专家所设计的CPU,彻底颠覆现有的芯片设计流程。

团队介绍

自2008年起,中科院计算所便开始长期从事芯片设计和人工智能的交叉研究。其中一项为人熟知的产出就是人工智能芯片寒武纪。

而在面向芯片设计的人工智能方法上,中科院计算所也已有十多年的积累,并且从未停止探索如何用人工智能方法使得芯片设计完全自动化。

依托中国科学院计算技术研究所建立的处理器芯片全国重点实验室,是中国科学院批准正式启动建设的首批重点实验室之一,并被科技部遴选为首批 20个标杆全国重点实验室,2022年5月开始建设。

其中,实验室学术委员会主任为孙凝晖院士,实验室主任为陈云霁研究员。

实验室近年来获得了处理器芯片领域首个国家自然科学奖等6项国家级科技奖励;在处理器芯片领域国际顶级会议发表论文的数量长期列居中国第一;在国际上成功开创了深度学习处理器等热门研究方向;孵化了总市值数千亿元的国产处理器产业头部企业。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • cpu
    cpu
    +关注

    关注

    68

    文章

    10860

    浏览量

    211725
  • AI
    AI
    +关注

    关注

    87

    文章

    30851

    浏览量

    269026
  • 自动化
    +关注

    关注

    29

    文章

    5570

    浏览量

    79265
  • 人工智能
    +关注

    关注

    1791

    文章

    47259

    浏览量

    238422

原文标题:世界首颗AI全自动设计CPU!中国团队重磅推出,性能堪比486,规模提升4000倍

文章出处:【微信号:WW_CGQJS,微信公众号:传感器技术】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    6家计算芯片厂商业绩两极分化!GPU、CPU卷向高端,AI芯片加速渗透至大模型产业

    ,业绩如何呢? 计算芯片包括AI芯片CPU、GPU关键环节,电子发烧友网统计了海光信息、澜起
    的头像 发表于 04-28 05:54 5013次阅读
    6家<b class='flag-5'>计算</b><b class='flag-5'>芯片</b>厂商业绩两极分化!GPU、<b class='flag-5'>CPU</b>卷向高端,<b class='flag-5'>AI</b><b class='flag-5'>芯片</b>加速渗透至大模型产业

    开启全新AI时代 智能嵌入式系统快速发展——“第六届国产嵌入式操作系统技术与产业发展论坛”圆满结束

    计算机学院牛建伟教授主持。 中科院软件副所长、总工程师,武延军研究员做了“AI大模型时代下的操作系统发展思考”主题演讲。 武延军介绍了操作系统的发展历程,指出应用的高速发展给操作系统
    发表于 08-30 17:24

    【龙芯2K0300蜂鸟板试用】1 龙芯中科必知3件事

    CPU始于中科院计算所内部的“Godson CPU设计与验证系统”科研项目,2000年11月龙芯设计工作正式启动,2001年5月龙芯课题组正式组建成立。2002年8月10日,中国首款通
    发表于 08-12 21:21

    中科院半导体所在高性能电泵浦拓扑激光器研发方面获进展

    优点成为研究热点,但基于电注入的拓扑激光器仍处于研究起步阶段。因此,发展出提高电泵浦拓扑激光器输出功率的设计思路和技术方案至关重要。 近期,中科院半导体研究研究员刘峰奇团队在高性能电泵浦拓扑激光器研发方面取得进展。该研究创新性
    的头像 发表于 06-18 06:33 358次阅读
    <b class='flag-5'>中科院</b>半导体所在高性能电泵浦拓扑激光器研发方面获进展

    界首个一云多芯迁移标准 中国信通联合浪潮云海发布

    北京2024年5月11日 /美通社/ -- 近日,中国信息通信研究(简称中国信通)与浪潮云海多家产业单位共同发布了《一云多芯迁移能力要求》。这是业界首个面向一云多芯迁移的标准,可
    的头像 发表于 05-13 17:16 368次阅读
    业<b class='flag-5'>界首个</b>一云多芯迁移标准 中国信通<b class='flag-5'>院</b>联合浪潮云海发布

    第三代“香山”RISC-V 开源高性能处理器核性能进入全球第一梯队

    中科院计算技术研究所、北京开源芯片研究共同创新,成功推出第三代“香山”开源高性能RISC-V处理器核,这也是
    的头像 发表于 04-25 15:37 1495次阅读

    楷登电子Cadence推出界首个全面的AI驱动数字孪生解决方案

    中国上海,2024 年 3 月 22 日——楷登电子(美国 Cadence 公司,NASDAQ:CDNS)推出界首个全面的 AI 驱动数字孪生解决方案,旨在促进数据中心的可持续发展及现代化的设计,标志着在优化数据中心能效和运营
    的头像 发表于 03-22 11:38 732次阅读

    中科加禾完成天使轮数千万元融资,专注编译技术,推动国产算力和大数据发展

    创办于2023年的中科加禾,依托中科院计算所的雄厚科技实力,倾心于编译技术,旨在填补国产芯片生态系统的空缺,助力国产算力和大模型应用推广,推动我国人工智能产业的快速发展。其主营业务涵盖
    的头像 发表于 03-19 16:49 1104次阅读

    新思科技推出界首个1.6T以太网IP整体解决方案

    新思科技(Synopsys)日前重磅推出了界首个1.6T以太网IP整体解决方案,这一创新性的方案在数据密集型人工智能(AI)工作负载的处理上,显著提升了带宽和吞吐量,为行业树立了新的技术标杆。
    的头像 发表于 03-19 10:24 431次阅读

    云塔科技发布世界首个LB/MB/HB/UHB四工器

    云塔科技(安努奇)发布世界首个LB/MB/HB/UHB四工器,基于云塔自主知识产权的SPD技术,其芯片制程工艺实现100%国产化。
    的头像 发表于 03-11 11:33 854次阅读

    新思科技推出界首个1.6T高速以太网解决方案

    新思科技(Synopsys)近日在数据中心领域取得了重大突破,推出了界首个1.6T高速以太网解决方案,为日益增长的人工智能(AI计算需求提供了强有力的网络支持。这一创新解决方案相较
    的头像 发表于 03-08 11:06 619次阅读

    浙江图灵算力研究向知存科技颁发“年度最具影响力企业奖”

    近日,浙江图灵算力研究生态伙伴联谊会在杭州举行,知存科技作为研究生态企业之一,与赛迪研究中科院计算所、自动化
    的头像 发表于 03-06 14:02 792次阅读

    高通推出首个支持AI优化的FastConnec 7900移动连接系统

    在今年的世界移动通信大会(MWC 2024)上,高通技术公司再次引领行业潮流,推出了全新的高通®FastConnect™ 7900移动连接系统。这一创新解决方案是业界首个将Wi-Fi 7、蓝牙以及超宽带技术集成于单个
    的头像 发表于 02-27 11:00 868次阅读

    小米14 Ultra将搭载首个AI大模型计算摄影平台

    近日,小米官方发布消息,其即将推出的旗舰手机小米14 Ultra将搭载业界首个AI大模型计算摄影平台——Xiaomi AISP。这一创新技术平台的引入,标志着小米在手机摄影领域迈
    的头像 发表于 02-25 17:20 1163次阅读

    英国将推出世界首个修路AI机器人

    机器人的应用越加广泛,之前各种建筑机器人已经有看到落地,粉刷匠说都快要失业了,现在英国将推出世界首个修路AI机器人;不仅仅是比人工来做要快很多,号称可以快70%;而且节省更多的费用。 根据外媒的报道
    的头像 发表于 01-12 17:59 1098次阅读