0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NVIDIA推出了基于A100的DGX A100

lhl545545 来源:快科技 作者:宪瑞 2020-11-17 10:26 次阅读

在发布A100 80GB加速卡之后,NVIDIA也更新了自家的DGX A100产品线,最多可达640GB HBM2e显存了。此外,还有全新的DGX Station A100工作站,配备了4个A100 80GB显存,还上了压缩机制冷。

上半年发布A100加速卡之后,NVIDIA推出了基于A100的DGX A100,这算是个mini超算了,最多可配备8路A100加速卡,而现在的DGX A100 640GB系统是它的升级版,显存容量可达640GB HBM2e。

升级之后的DGX A100 640超算性能提升也跟A100 80GB加速卡一样,AI大模型训练中提升最为明显,性能增加了200%,其他应用中性能提升25%到100%不等。

DGX A100 640GB超算的价格没公布,会提供给之前的客户升级选择。

还有一款新品是DGX Station A100,是A100家族中首款、也是唯一一款面向工作站的机器,配备了4块A100 80GB加速卡,320GB HBM2e显存,支持NVLink 3.0,带宽超过200GB/s。

其他方面,DGX Station A100使用的还是AMD的64核EPYC处理器,支持PCIe 4.0,内存可达512GB,1.92TB NVMe系统盘,M.2规格,数据盘最多可达7.68TB,U.2规格。

网络方面,DGX Station A100支持2个10Gbe万兆网卡,还支持4个mini DP输出4K,同时还有1个1Gbe千兆网卡用于远程管理。

当然,DGX Station A100最重要的升级是散热系统,之前的DGX使用的是水冷而已,这次DGX Station A100上了压缩机制冷,可以更好地控制温度,噪音也会降低,毕竟工作站跟DGX A100超算的使用环境不同,噪音还是有点影响的。

DGX A100 640GB、DGX Station A100的价格都没公布,不过现在已经量产上市了,并且已经用于部分超算,比如英国的Cambridge-1就用50台DGX A100 640GB超算,其他商业性销售要到明年1月份,2月份会扩大规模。
责任编辑:pj

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 处理器
    +关注

    关注

    68

    文章

    19138

    浏览量

    228989
  • 数据
    +关注

    关注

    8

    文章

    6854

    浏览量

    88778
  • NVIDIA
    +关注

    关注

    14

    文章

    4863

    浏览量

    102760
收藏 人收藏

    评论

    相关推荐

    创业公司转向RTX 4090因NVIDIA中国特供芯片价格高昂

    8月14日最新消息指出,据多方媒体报道,NVIDIAA100与H100等高端芯片因受限已有一年半之久,尽管公司随后推出了专为中国市场设计的H20芯片,但这并未在中国创业圈内引发广泛热
    的头像 发表于 08-15 14:28 380次阅读

    先导中心推出1200V 100A三电平全碳化硅模块新品

    在成功发布首款1200V 100A H桥全碳化硅模块后,先导中心再度展现了其技术实力,推出了全新的1200V 100A 三电平全碳化硅模块。
    的头像 发表于 05-09 14:25 550次阅读

    Dynamic Load Tool 100 A 评估板数据手册

    电子发烧友网站提供《Dynamic Load Tool 100 A 评估板数据手册.rar》资料免费下载
    发表于 04-14 16:53 0次下载
    Dynamic Load Tool <b class='flag-5'>100</b> <b class='flag-5'>A</b> 评估板数据手册

    美方持续收紧AI芯片对华出口限制,英伟达等巨头面临挑战

    为了挽回中国市场,英伟达不得不做出妥协,推出了符合美方限制政策的A100A800芯片。
    的头像 发表于 04-02 16:28 1103次阅读

    NVIDIA推出搭载GB200 Grace Blackwell超级芯片的NVIDIA DGX SuperPOD™

    NVIDIA 于太平洋时间 3 月 18 日发布新一代 AI 超级计算机 —— 搭载 NVIDIA GB200 Grace Blackwell 超级芯片的 NVIDIA DGX Sup
    的头像 发表于 03-21 09:49 647次阅读

    大模型训练:为何A100更胜4090一筹?

    首先看吞吐量,看起来没有什么违和的,在单卡能放下模型的情况下,确实是 H100 的吞吐量最高,达到 4090 的两倍。
    发表于 03-13 12:27 3944次阅读

    英伟达H200和A100的区别

    英伟达H200和A100两款芯片在性能、架构、内存以及应用场景等多个方面存在显著的区别。
    的头像 发表于 03-07 16:23 3333次阅读

    英伟达H200和A100的差异

    英伟达H200和A100在多个方面存在差异。
    的头像 发表于 03-07 16:18 2202次阅读

    解读六大科技巨头自研AI芯片进展,谁将领跑未来?

    在当前的AI发展浪潮中,NVIDIA无疑是AI算力的领跑者。其A100/H100系列芯片已获得全球人工智能市场顶级客户的订单。
    发表于 02-22 10:35 440次阅读
    解读六大科技巨头自研AI芯片进展,谁将领跑未来?

    NVIDIA特供中国的芯片,AI性能大降10%售价依然高

    目前NVIDIA最昂贵的A100、H100芯片无法对中国市场出售,此前为中国市场定制的A800、H800芯片也被限制对中国出售,可以对中国出售的为定制化的H20等芯片,而这些芯片的性能
    的头像 发表于 01-03 16:07 1273次阅读

    2024年,GPU能降价吗?

    首当其冲的就是A100GPU。OpenAI使用的是3,617台HGXA100服务器,包含近3万块英伟达GPU。国内云计算相关专家认为,做好AI大模型的算力最低门槛是1万枚英伟达A100芯片。
    的头像 发表于 01-03 15:57 807次阅读
    2024年,GPU能降价吗?

    英伟达和华为/海思主流GPU型号性能参考

    一句话总结,H100 vs. A100:3 倍性能,2 倍价格 值得注意的是,HCCS vs. NVLINK的GPU 间带宽。 对于 8 卡 A800 和 910B 模块而言,910B HCCS 的总带宽为392GB/s
    发表于 12-29 11:43 5332次阅读
    英伟达和华为/海思主流GPU型号性能参考

    英伟达vs.华为/海思:GPU性能一览

    NVIDIA NVLink采用全网状拓扑,如下所示,(双向)GPU-to-GPU 最大带宽可达到400GB/s (需要注意的是,下方展示的是8*A100模块时的600GB/s速率,8*A800也是类似的全网状拓扑);
    的头像 发表于 12-27 16:49 1743次阅读
    英伟达vs.华为/海思:GPU性能一览

    AMD最强AI芯片发布,微软、Meta等表示将购买

    目前,为进行人工智能(ai)的大规模模型训练,需要很多高性能ai芯片,但nvidia h100a100等价格昂贵,而且供不应求,因此对技术大企业来说,负担不小的费用。
    的头像 发表于 12-07 14:01 576次阅读

    迈向100A的演进历程μModule稳压器

    电子发烧友网站提供《迈向100A的演进历程μModule稳压器.pdf》资料免费下载
    发表于 11-22 09:20 0次下载
    迈向<b class='flag-5'>100A</b>的演进历程μModule稳压器