0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Cerebras推WSE-3芯片,性能翻倍,助力超大规模AI模型训练

微云疏影 来源:综合整理 作者:综合整理 2024-03-14 10:01 次阅读

据报道,硅谷晶圆芯片创企 Cerebras 近日公布了其 WSE-3 芯片型号,声称在保持相同能耗的基础上,性能较前作 WSE-2 提升逾一倍。主要技术规格如下:

首先,WSE-3采用台积电最新的5nm工艺制作(目前领先业界)。其次,该芯片拥有超过4万亿个晶体管以及90万个AI核心,配合44GB片上SRAM高速缓存及三种可选片外存储方案(分别是1.5TB、12TB与1.2PB)。此外,WSE-3还具备125 PFLOPS的AI运算能力。

Cerebras指出,新款CS-3系统基于WSE-3芯片设计,最高支持1.2PB的内存容量,适于训练比GPT-4及Gemini更大的未来模型。借助独特的逻辑内存空间技术,能将24000T模型参数集中储存,大幅减轻了开发者负担。

尤为值得关注的是,CS-3强大的卓越的训练性能使其成为满足大规模AI需求的最佳选择,甚至可以在单日内完成70B模型的精炼。借助最大规模的2048套CS-3系统集群,仅仅一天便能够完成长毛羊 70B 神经网络(Netrep Tempo)模型的深度学习。同时,CS-3系统在用户友好性设计方面也表现出色,与GPU相比,大模型训练中的编码量降低高达97%,更多人可以轻松掌握超大规模AI处理技能。

值得一提的是,阿联酋G42财团已经表态将创建含64套 CS-3系统在内的Condor Galaxy 3超级计算机,预计综合AI运算能力可达8 exaFLOPs。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 芯片
    +关注

    关注

    455

    文章

    50714

    浏览量

    423142
  • 台积电
    +关注

    关注

    44

    文章

    5632

    浏览量

    166411
  • sram
    +关注

    关注

    6

    文章

    767

    浏览量

    114675
  • 晶体管
    +关注

    关注

    77

    文章

    9682

    浏览量

    138080
收藏 人收藏

    评论

    相关推荐

    Zettabyte与纬创携手打造台湾首个超大规模AI数据中心

    在推动亚太地区AI计算领域迈向新纪元的征程中,Zettabyte与纬创资通(Wistron Corporation)携手宣布了一项重大合作——共同建设台湾地区首个超大规模AI数据中心,这一里程碑式的项目不仅标志着台湾
    的头像 发表于 09-05 16:26 380次阅读

    谷歌正在考虑在越南建设超大规模数据中心

    据可靠消息透露,Alphabet集团旗下的谷歌公司正积极筹划在越南南部的经济枢纽胡志明市周边建设一座“超大规模”数据中心。此举标志着美国科技巨头首次在东南亚国家进行此类重大投资,尽管具体的投资金额尚待揭晓。
    的头像 发表于 08-30 14:55 615次阅读

    燧原科技与清程极智携手共创AI未来:共筑超大规模智算集群新篇章

    协议,双方将携手步入全新的合作阶段,共同探索并开发面向超万亿参数大模型超大规模集群的高性能系统软件方案,标志着双方在推动AI技术边界、加速产业智能化进程上迈出了坚实的一步。
    的头像 发表于 07-05 14:50 776次阅读

    AI初出企业Cerebras已申请IPO!称发布的AI芯片比GPU更适合大模型训练

    美国加州,专注于研发比GPU更适用于训练AI模型的晶圆级芯片,为复杂的AI应用构建计算机系统,并与阿布扎比科技集团G42等机构合作构建超级计
    的头像 发表于 06-26 00:09 2914次阅读
    <b class='flag-5'>AI</b>初出企业<b class='flag-5'>Cerebras</b>已申请IPO!称发布的<b class='flag-5'>AI</b><b class='flag-5'>芯片</b>比GPU更适合大<b class='flag-5'>模型</b><b class='flag-5'>训练</b>

    世界第一AI芯片发布!世界纪录直接翻倍 晶体管达4万亿个

    和相同的价格下,WSE-3性能是之前的世界记录保持者Cerebras WSE-2的两倍。 该公司称,WSE-3
    的头像 发表于 03-21 17:34 588次阅读

    Cerebras推出性能翻倍WSE-3 AI芯片

    Cerebras Systems近日推出的Wafer Scale Engine 3WSE-3芯片无疑在人工智能领域掀起了一场革命。这款芯片
    的头像 发表于 03-20 11:32 895次阅读

    Cerebras Systems推出迄今最快AI芯片,搭载4万亿晶体管

    美国芯片初创企业Cerebras Systems近日在人工智能领域取得了重大突破,成功推出了全新的5纳米级“晶圆级引擎3”(WSE-3芯片
    的头像 发表于 03-19 11:29 789次阅读

    最强AI芯片发布,Cerebras推出性能翻倍WSE-3 AI芯片

    近日,芯片行业的领军企业Cerebras Systems宣布推出其革命性的产品——Wafer Scale Engine 3,该产品成功将现有最快AI
    的头像 发表于 03-19 09:31 1080次阅读
    最强<b class='flag-5'>AI</b><b class='flag-5'>芯片</b>发布,<b class='flag-5'>Cerebras</b>推出<b class='flag-5'>性能</b><b class='flag-5'>翻倍</b>的<b class='flag-5'>WSE-3</b> <b class='flag-5'>AI</b><b class='flag-5'>芯片</b>

    Cerebras发布WSE-3 AI芯片性能翻倍达4万亿晶体,能耗不变

    该款 WSE-3 AI芯片几乎完全由一块12英寸晶圆构成,形如边长21.5厘米之正方体。这款芯片设有90万个 AI 内核,理论上可输出每秒1
    的头像 发表于 03-18 16:37 911次阅读

    AI芯片界掀起狂潮,WSE-3性能飙升刷新纪录!

    WSE-3采用了4万亿晶体管的5纳米工艺制程,工艺水平达到了惊人的高度。
    的头像 发表于 03-15 16:08 970次阅读

    Cerebras推出WSE-3 AI芯片,比NVIDIA H100大56倍

    Cerebras 是一家位于美国加利福尼亚州的初创公司,2019 年进入硬件市场,其首款超大人工智能芯片名为 Wafer Scale Engine (WSE) ,尺寸为 8 英寸 x
    的头像 发表于 03-14 17:11 1986次阅读
    <b class='flag-5'>Cerebras</b>推出<b class='flag-5'>WSE-3</b> <b class='flag-5'>AI</b><b class='flag-5'>芯片</b>,比NVIDIA H100大56倍

    名单公布!【书籍评测活动NO.30】大规模语言模型:从理论到实践

    ,在大模型实践和理论研究的过程中,历时8个月完成 《大规模语言模型:从理论到实践》 一书的撰写。希望这本书能够帮助读者快速入门大模型的研究和应用,并解决相关技术问题。 本书一经上市,
    发表于 03-11 15:16

    超大规模数据中心采用三星FDP SSD降低存储成本

    主机数据放置技术一直是超大规模数据中心关注的话题,因为它影响所部署的SSD的总体拥有成本(TCO)。
    的头像 发表于 03-07 15:39 1904次阅读
    <b class='flag-5'>超大规模</b>数据中心采用三星FDP SSD降低存储成本

    晶晟微纳发布N800超大规模AI算力芯片测试探针卡

    近日,上海韬盛科技旗下的苏州晶晟微纳宣布推出其最新研发的N800超大规模AI算力芯片测试探针卡。这款高性能探针卡采用了前沿的嵌入式合金纳米堆叠技术,旨在满足当前
    的头像 发表于 03-04 13:59 1014次阅读

    中国电信规划在上海建设首个国产超大规模算力液冷集群

    中国电信规划建设首个国产超大规模算力液冷集群 人工智能技术的快速发展催生了巨大的算力需求;中国电信规划在上海规划建设可支持万亿参数大模型训练的智算集群中心。其中会搭载液冷技术,单池新建国产算力达10000卡,也是首个支持单池万卡
    的头像 发表于 02-22 18:48 1327次阅读