0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NVIDIA DGX B200首次面向零售市场:配备8块B200 GPU

要长高 2024-10-14 14:34 次阅读

10月13日最新消息,NVIDIA的DGX B200 AI服务器近期已在Broadberry上架,标价515,410美元(相当于约364.2万元人民币)。

自发布以来,Blackwell架构就备受业界瞩目,NVIDIA首席执行官黄仁勋对其赞誉有加,微软、Meta等科技巨头也迅速跟进采用。

DGX B200搭载了八块B200 GPU,配备高达1.4TB的GPU内存及64TB/s的HBM3E内存带宽。

据NVIDIA介绍,DGX B200可提供最高72 petaFLOPS的训练性能和144 petaFLOPS的推理性能,相较于前代产品,训练效能提升3倍,推理效能更是高达15倍。

在软件层面,NVIDIA DGX平台内含针对企业级开发和部署的NVIDIA AI Enterprise软件。用户还可利用DGX B200系统构建DGX SuperPOD,以打造一个支持大型开发团队运行多元化作业的AI卓越中心

此外,值得注意的是,这是NVIDIA的Blackwell AI产品首次以零售方式亮相互联网。不久前,OpenAI还在社交平台上宣布收到了NVIDIA的首批DGX B200工程样机。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    4843

    浏览量

    102697
  • 服务器
    +关注

    关注

    12

    文章

    8933

    浏览量

    85049
  • AI
    AI
    +关注

    关注

    87

    文章

    29664

    浏览量

    267993
收藏 人收藏

    评论

    相关推荐

    英伟达或取消B100转用B200A代替

    今年3月份,英伟达在美国加利福尼亚州圣何塞会议中心召开的GTC 2024大会上推出了Blackwell架构GPU。原定于今年底出货的B100/B200被寄予厚望,将替代现行H100/H200
    的头像 发表于 08-08 17:19 400次阅读

    NVIDIA GB200超级芯片引领液冷散热新纪元

    ,特别是其单颗B200芯片功耗高达1000W,以及由一颗Grace CPU与两颗Blackwell GPU组成的超级芯片GB200功耗惊人地达到2700W,液冷散热方案正逐步成为市场
    的头像 发表于 08-01 16:35 764次阅读

    英伟达GPU新品规划与HBM市场展望

    在COMPUTEX 2024主题演讲中,英伟达(NVIDIA)公布了其GPU产品的未来规划。据英伟达透露,B100、B200和GB200系列
    的头像 发表于 06-13 09:44 726次阅读

    PUE的拯救者,液冷服务器

    下,要想借助GPU密集的计算集群打造智算网络,是肯定不能在散热上马虎的。为此,自19年起组建开展商业化应用的液冷服务器,开始慢慢抢占更多的市场份额。   液冷的必要性   随着英伟达B200
    的头像 发表于 06-06 00:23 2504次阅读
    PUE的拯救者,液冷服务器

    特斯拉加码AI布局:xAI将采购30万英伟达B200芯片

    特斯拉CEO埃隆·马斯克近日在社交平台上公布了一项重要消息,旗下的人工智能初创公司xAI计划采购30万英伟达B200 AI芯片。这一大规模采购计划标志着特斯拉在人工智能领域布局的进一步加深。
    的头像 发表于 06-05 09:21 580次阅读

    进一步解读英伟达 Blackwell 架构、NVlink及GB200 超级芯片

    ,第五代NVLink、InfiniBand网络和NVIDIA Magnum IO™软件的支持,确保企业和广泛GPU计算集群的高效可扩展性。 HGX B200 深度学习推理能力 英伟达第五代 NVLink
    发表于 05-13 17:16

    OpenAI联手Nvidia发布首台Nvidia DGX H200

    OpenAI总裁兼联合创始人Greg Brockman分享了他与山姆・阿尔特曼(Sam Altman)、黄仁勋以及自己的合影,他们的眼前正是这台首次亮相的DGX H200
    的头像 发表于 04-25 13:50 378次阅读

    B200一经面市,就只能做弟弟?Cerebras '巨无霸'能否逆袭成功?

    Cerebras Systems 发布全球最大芯片 WSE3 搭载4万亿个晶体管。与英伟达 B200 GPU 的2080亿晶体管相比较,WSE3 的规模宛如巨人面对侏儒。其打破常规,不再将一个晶圆
    的头像 发表于 04-09 10:46 307次阅读
    <b class='flag-5'>B200</b>一经面市,就只能做弟弟?Cerebras &apos;巨无霸&apos;能否逆袭成功?

    英伟达H200性能显著提升,年内将推出B200新一代AI半导体

    同一天,NVIDIA发布了H200的性能评估报告,表明在与美国Meta公司的大型语言模型——LLM“Llama 2”的对比中,H200使AI导出答案的处理速度最高提升了45%。
    的头像 发表于 04-01 09:36 1299次阅读

    NVIDIA推出搭载GB200 Grace Blackwell超级芯片的NVIDIA DGX SuperPOD™

    NVIDIA 于太平洋时间 3 月 18 日发布新一代 AI 超级计算机 —— 搭载 NVIDIA GB200 Grace Blackwell 超级芯片的 NVIDIA
    的头像 发表于 03-21 09:49 634次阅读

    英伟达发布新一代AI芯片B200

    在美国加州圣何塞举办的英伟达GTC生态大会上,英伟达CEO黄仁勋以一场震撼人心的演讲,正式推出了公司的新一代GPU——Blackwell。作为Blackwell家族的款芯片,B200以其前所未有的性能表现和革命性的技术创新,再
    的头像 发表于 03-20 10:07 890次阅读

    英伟达发布性能大幅提升的新款B200 AI GPU

    英伟达宣称,B200在性能上比以往最好的GPU快30倍不止。由它构成的服务器集群相比上一代,运算能力飞跃性提升,甚至能使大语言模型的训练速度翻番。
    的头像 发表于 03-20 09:37 705次阅读

    英伟达B100 GPU架构披露,B200配备288GB显存

    XpeaGPU透露,B100 GPU配备两枚基于此技术的芯片,与此同时,还将连通多达8个HBM3e显存堆栈,总容量高达192GB。AMD同样已有提供同量级的产品,并且在Instinc
    的头像 发表于 03-18 14:16 1192次阅读

    英伟达计划拉大GB200B100/B200规格差异,以刺激用户购买GB200

    早些时候,IT之家用一张路线图展示了英伟达计划在2024年推出Hopper GH200 GPU,其后将依次推出基于Blackwell的GB200以及GX200
    的头像 发表于 03-14 16:36 2570次阅读

    戴尔发布英伟达B200 AI GPU:高功耗达1000W,创新性冷却工程设计必要

    市场传言,这款B200虽然运算性能更强,却又面临着惊人的能耗,最高或可至1000W,同比H100增长超过40%。由于搭载Hopper架构及HBM3e高带宽内存,英伟达B200被行业视为运行速度最高的AI芯片;
    的头像 发表于 03-05 09:30 1819次阅读