0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

AI初出企业Cerebras已申请IPO!称发布的AI芯片比GPU更适合大模型训练

Carol Li 来源:电子发烧友 作者:李弯弯 2024-06-26 00:09 次阅读

电子发烧友网报道(文/李弯弯)近日,据外媒报道,研发出世界最大芯片的明星AI芯片独角兽Cerebras Systems已向证券监管机构秘密申请IPO。

Cerebras成立于2016年,总部在美国加州,专注于研发比GPU更适用于训练AI模型的晶圆级芯片,为复杂的AI应用构建计算机系统,并与阿布扎比科技集团G42等机构合作构建超级计算机。基于其最新旗舰芯片构建的服务器可轻松高效地训练万亿参数模型。

Cerebras已发布第三代AI芯片

技术实力方面,Cerebras公司采用独特的晶圆级集成技术,将整片晶圆作为一个单独的芯片来使用,实现了前所未有的集成度和性能。这种技术使得Cerebras的AI芯片在晶体管数量、计算能力和内存带宽等方面均达到了业界领先水平。

Cerebras的AI芯片具有强大的计算能力,能够支持训练业界最大的AI模型,包括参数规模高达数十万亿个的模型。这种高性能计算能力使得研究人员能够更快地测试想法、使用更多数据并解决新问题。

Cerebras的AI芯片采用了先进的通信架构,实现了全局性的低延迟、高带宽通信。这种通信架构使得多个Cerebras芯片之间能够高效地进行数据传输和协作,进一步提升了AI应用的性能。

产品方面,Cerebras的核心产品线WSE(Wafer Scale Engine)系列已经过更新三代。2019年8月,Cerebras发布第一颗芯片WSE,WSE作为Cerebras标志性产品,是史上最大的AI芯片之一。其设计突破了传统半导体制造的界限,采用了独特的晶圆级集成(Wafer-Scale Integration, WSI)技术,将整个晶圆作为一个单独的芯片来使用,这在当时是前所未有的。

这颗芯片采用台积电16nm制程,在46225mm²面积上集成了40万个AI核心和1.2万亿颗晶体管。同时,该芯片配备了18GB的片上静态随机存取存储器(SRAM),这一容量远大于大多数芯片的片外存储(DDR)。带宽达到100Pb/s(1Pb=1000TB),这一数值比现有芯片的相关参数高出一个单位(3个数量级)。

2021年,Cerebras推出第二代芯片WSE-2,搭载WSE-2芯片的AI超算系统CS-2也同期发布。WSE-2在继承了WSE的晶圆级集成技术的基础上,进一步提升了制程工艺和性能,成为当时业界领先的AI芯片之一。该芯片采用台积电7nm制程,相较于前代产品WSE的16nm工艺,进一步缩小了晶体管的尺寸,提高了集成度。与WSE相同,WSE-2也采用了整片晶圆作为单一芯片,面积约为462255mm²。晶体管数量达到了创纪录的2.6万亿个,相较于WSE的1.2万亿个晶体管,实现了翻倍的增长。

WSE-2集成了85万个专为AI应用优化的稀疏线性代数计算(SLAC)核心,相较于WSE的40万个核心,有了显著的提升。片上内存提升至40GB,相较于WSE的18GB,增加了近一倍。内存带宽高达20PB/s,相较于WSE的9PB/s,也有了显著的提升。

今年3月,Cerebras推出了第三代晶圆级芯片WSE-3和AI超级计算机CS-3。WSE-3采用台积电5nm制程,有90万个AI核心和4万亿颗晶体管。配备了44GB的片上SRAM缓存,相较于前代产品有了显著提升。这一大容量片上内存能够支持更大规模的AI模型训练,无需进行分区或重构,大大简化了训练工作流程。WSE-3的内存带宽高达21PB/s,峰值AI算力高达125 PetaFLOPS,相当于每秒能够执行12.5亿亿次浮点计算。

Cerebras 的AI芯片被认为更适合大模型训练

Cerebras的芯片被认为比GPU更适合用于大模型训练。其WSE系列芯片具有庞大的规模和惊人的性能。例如,WSE-3拥有超过4万亿个晶体管和46225mm²的硅片面积,堪称全球最大的AI芯片。与之相比,传统GPU的规模和性能通常较小。Cerebras的芯片能够在单个设备上容纳和训练比当前热门模型大得多的下一代前沿模型。

Cerebras的芯片搭载了大量的核心和内存。例如,WSE-3拥有900,000个核心和44GB内存,这使得它能够同时处理大量的数据和计算任务。传统GPU的核心数量和内存通常较小,可能需要多个GPU协同工作才能达到类似的性能。

Cerebras采用了片上内存的设计,这意味着内存和计算核心都在同一个芯片上,从而大大减少了数据传输的开销和延迟。相比之下,传统GPU的内存和计算核心是分离的,需要通过PCIe等接口进行数据传输,这可能导致性能瓶颈和延迟。

Cerebras的CS-3系统是基于WSE-3推出的,具备强大的系统支持。该系统拥有高达1.2PB的内存容量,能够训练比GPT-4和Gemini模型大10倍的下一代前沿模型。在大模型训练中,Cerebras的CS-3系统相较于GPU具有更低的代码复杂性和更高的易用性。开发人员可以更加高效地实现和训练大模型。

Cerebras的芯片通过保持整个晶圆的完整性来降低互连和网络成本以及功耗。这使得Cerebras的芯片在功耗和成本方面相较于多个GPU协同工作具有优势。

今年4月,Cerebras发文比较Cerebras CS-3与英伟达B200,称CS-3和英伟达DGX B200是2024年上市的两款最令人兴奋的AI硬件新品。从对比数据来看,无论AI训练性能还是能效,CS-3都做到倍杀DGX B200。

wKgZomZ6l4uAM3yGAAHe43y7_Gk033.png

写在最后

目前,AI大模型训练基本离不开GPU的支持,Cerebras发布的WSE系列芯片,给业界带来了新的思路,尤其是其今年发布的第三代产品WSE-3,能够支持训练业界最大的AI模型,包括参数规模高达24万亿个的模型。如果其能够顺利上市,一是对于其自身后续发展更有利,二是对于英伟达来说它可能会成长为一个较大的竞争对手。







声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    27

    文章

    4508

    浏览量

    127518
  • ipo
    ipo
    +关注

    关注

    1

    文章

    1120

    浏览量

    32302
  • AI芯片
    +关注

    关注

    17

    文章

    1748

    浏览量

    34530
  • 大模型
    +关注

    关注

    2

    文章

    1867

    浏览量

    1488
收藏 人收藏

    评论

    相关推荐

    AI初创公司Cerebras秘密申请IPO

    近日,全球科技圈再次掀起波澜。据外媒最新报道,被誉为明星AI芯片独角兽的Cerebras Systems,已经悄然向证券监管机构递交了首次公开募股(IPO)的秘密
    的头像 发表于 06-27 17:44 354次阅读

    进一步解读英伟达 Blackwell 架构、NVlink及GB200 超级芯片

    、库及优化的AI模型和应用程序,为用户提供全面的AI计算解决方案。 DGX SuperPOD - 专为人工智能设计的数据中心 NVIDIA 发布专为
    发表于 05-13 17:16

    AI训练,为什么需要GPU

    随着由ChatGPT引发的人工智能热潮,GPU成为了AI模型训练平台的基石,甚至是决定性的算力底座。为什么GPU能力压CPU,成为炙手可热
    的头像 发表于 04-24 08:05 1040次阅读
    <b class='flag-5'>AI</b><b class='flag-5'>训练</b>,为什么需要<b class='flag-5'>GPU</b>?

    国产GPUAI模型领域的应用案例一览

    不断推出新品,产品也逐渐在各个领域取得应用,而且在大模型训练和推理方面,也有所建树。   国产GPU在大模型上的应用进展   电子发烧友此前就统计过目前国内主要的
    的头像 发表于 04-01 09:28 2914次阅读
    国产<b class='flag-5'>GPU</b>在<b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>领域的应用案例一览

    Cerebras推出性能翻倍的WSE-3 AI芯片

    Cerebras Systems近日推出的Wafer Scale Engine 3(WSE-3)芯片无疑在人工智能领域掀起了一场革命。这款芯片不仅刷新了现有最快AI
    的头像 发表于 03-20 11:32 541次阅读

    最强AI芯片发布Cerebras推出性能翻倍的WSE-3 AI芯片

    近日,芯片行业的领军企业Cerebras Systems宣布推出其革命性的产品——Wafer Scale Engine 3,该产品成功将现有最快AI
    的头像 发表于 03-19 09:31 650次阅读
    最强<b class='flag-5'>AI</b><b class='flag-5'>芯片</b><b class='flag-5'>发布</b>,<b class='flag-5'>Cerebras</b>推出性能翻倍的WSE-3 <b class='flag-5'>AI</b><b class='flag-5'>芯片</b>

    AI模型怎么解决芯片过剩?

    AI模型
    电子发烧友网官方
    发布于 :2024年01月02日 15:42:05

    AI模型可以设计电路吗?

    AI模型
    电子发烧友网官方
    发布于 :2024年01月02日 15:09:29

    微软发布自研AI芯片

    微软的Azure Maia AI芯片和Arm架构Azure Cobalt CPU将于2024年上市。今年,英伟达的H100 GPU需求激增,这些处理器被广泛用于训练和运行生成图像工具和
    的头像 发表于 11-16 14:13 565次阅读

    【KV260视觉入门套件试用体验】Vitis AI 构建开发环境,并使用inspector检查模型

    量化 七、Vitis AI 通过迁移学习训练自定义模型 八、Vitis AI 将自定义模型编译并部署到KV260中 铺垫 Vitis
    发表于 10-14 15:34

    盘古ai模型用的什么芯片

    盘古ai模型用的什么芯片? 盘古AI模型是一种基于深度学习算法的人工智能技术,它是由中国互联网公司暴风集团投入上亿元研发的一项人工智能技
    的头像 发表于 08-31 09:01 2837次阅读

    阿里平头哥发布首个 RISC-V AI 软硬全栈平台

    HHB 实现了在典型网络性能第三方工具平均提升 88%,并增加支持运行 Transformer、TensorFlow、PyTorch 等 170 余个主流框架 AI 模型。 基于此,平头哥
    发表于 08-26 14:14

    训练好的ai模型导入cubemx不成功怎么解决?

    训练好的ai模型导入cubemx不成功咋办,试了好几个模型压缩了也不行,ram占用过大,有无解决方案?
    发表于 08-04 09:16

    Ai 部署的临界考虑电子指南

    虽然GPU解决方案对训练AI部署需要更多。 预计到2020年代中期,人工智能行业将增长到200亿美元,其中大部分增长是人工智能推理。英特尔Xeon可扩展处理器约占运行AI推理的处理器
    发表于 08-04 07:25

    华为发布模型时代AI存储新品

    7月14日,华为发布模型时代AI存储新品, 为基础模型训练、行业模型
    的头像 发表于 07-14 15:20 629次阅读
    华为<b class='flag-5'>发布</b>大<b class='flag-5'>模型</b>时代<b class='flag-5'>AI</b>存储新品