0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

AWS成为第一个提供NVIDIA GH200 Grace Hopper超级芯片的提供商

汽车电子设计 来源:芝能汽车 2023-11-30 09:24 次阅读

2023年的AWS re:Invent大会上,AWS和NVIDIA宣布AWS将成为第一个提供NVIDIA GH200 Grace Hopper超级芯片的云服务提供商。这一超级芯片通过NVIDIA DGX Cloud与NVIDIA NVLink技术相连,将在Amazon Elastic Compute Cloud(Amazon EC2)上运行,为云计算带来了一场技术革命。

一)大杀器NVIDIA GH200 NVL32

NVIDIA GH200 NVL32 是针对 NVIDIA GH200 Grace Hopper 超级芯片的机架级参考设计,通过 NVLink 连接,面向超大规模数据中心。支持 16 个与 NVIDIA MGX 机箱设计兼容的双 NVIDIA Grace Hopper 服务器节点,并且可以采用液体冷却,以最大限度地提高计算密度和效率。

NVIDIA GH200 NVL32 的主要特点如下:

拥有 32 个 GPU NVLink 域,每个 GPU NVLink 域包含一个 GH200 Grace Hopper 超级芯片,可以访问网络中任何其他 Grace Hopper 超级芯片的内存,从而提供 19.5 TB 的 NVLink 可寻址内存。这意味着它可以突破单个系统的内存限制,实现更大的并行性和可扩展性。

使用 9 个 NVLink 交换机,每个交换机包含一个第三代 NVSwitch 芯片,将 32 个 GH200 GPU 连接在一起,形成一个完全连接的胖树网络。这意味着它可以实现高速的通信和低延迟的同步,提高人工智能的性能和效率。

由 NVIDIA HPC SDK 以及全套 CUDA、NVIDIA CUDA-X 和 NVIDIA Magnum IO 库支持,可加速超过 3,000个 GPU 应用程序。这意味着它可以提供丰富的软件生态系统,让开发者和研究者可以轻松地开发和部署人工智能应用程序。

二)NVIDIAGH200 NVL32的应用场景

NVIDIA GH200 NVL32 非常适合以下几种人工智能应用场景:

1)AI推理和训练:生成式人工智能模型可以根据给定的文本或上下文生成自然语言,广泛应用于聊天机器人、文本摘要、文本生成、机器翻译等领域,为用户提供智能的交互和服务。法学硕士需要大规模、多 GPU 训练,参数数量非常庞大,例如 GPT-3 有 1750 亿个参数,GPT-4 有 1.5 万亿个参数。NVIDIA GH200 NVL32 专为推理和训练下一代法学硕士而构建。该系统利用 32 个 NVLink 连接的 GH200 Grace Hopper 超级芯片突破了内存、通信和计算瓶颈,训练万亿参数模型的速度比 NVIDIA HGX H100 快 1.7 倍 以上。在 GPT-530B 推理模型上,NVIDIA GH200 NVL32 系统的性能比四个 H100 NVL8 系统高出 2 倍。

a5470a3c-8f16-11ee-939d-92fbcf53809c.png

2推荐系统:人工智能模型可以根据用户的偏好和行为,向用户推荐最相关和最感兴趣的内容或产品。它们广泛用于电子商务和零售、媒体和社交媒体、数字广告等领域,以实现内容个性化。

a55a6cc6-8f16-11ee-939d-92fbcf53809c.png

这推动了收入和商业价值。推荐器使用代表用户、产品、类别和上下文的嵌入,大小可达数十 TB。高度准确的推荐器将提供更具吸引力的用户体验,但也需要更大的嵌入和更精确的推荐器。嵌入对于人工智能模型具有独特的特征,需要大量内存、高带宽和闪电般快速的网络。NVIDIA GH200 NVL32 可提供 7 倍 的快速访问内存,并且与基于 x86 的传统设计中与 GPU 的 PCIe Gen5 连接相比,可提供 7 倍 的带宽。与采用 x86 的 H100 相比,它可以实现 7 倍 详细的嵌入。NVIDIA GH200 NVL32 还可以为具有大量嵌入表的模型提供高达 7.9 倍 的训练性能。

3)图神经网络图神经网络是一种人工智能模型,可以将深度学习的预测能力应用于丰富的数据结构,这些数据结构将对象及其关系描述为图中由线连接的点。科学和工业的许多分支已经将有价值的数据存储在图数据库中。深度学习用于训练预测模型,从图表中挖掘新的见解。

a572e738-8f16-11ee-939d-92fbcf53809c.png

总结:

Amazon和NVIDIA推动NVIDIA DGX Cloud即将在AWS上推出,将成为首家在DGX云中提供NVIDIA GH200 NVL32,并将其作为EC2实例的云服务提供商。NVIDIA GH200 NVL32解决方案包含32个GPU NVLink域和19.5 TB的大容量统一内存。在GPT-3的训练和LLM推理方面明显优于先前的模型。NVIDIA GH200 NVL32的CPU-GPU内存互连速度非常快,提高了应用程序的内存可用性。该技术是超大规模数据中心可扩展设计的一部分,由NVIDIA软件和库提供支持,可加速数千个GPU应用程序。NVIDIA GH200 NVL32特别适用于LLM训练和推理、推荐系统、GNN等任务,为人工智能和计算应用程序带来显著的性能改进。






审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    4952

    浏览量

    102861
  • GPT
    GPT
    +关注

    关注

    0

    文章

    352

    浏览量

    15323
  • 超级芯片
    +关注

    关注

    0

    文章

    34

    浏览量

    8869
  • AWS
    AWS
    +关注

    关注

    0

    文章

    427

    浏览量

    24323
  • GPU芯片
    +关注

    关注

    1

    文章

    303

    浏览量

    5786

原文标题:NVIDIA GH200 NVL32在AWS里落地

文章出处:【微信号:QCDZSJ,微信公众号:汽车电子设计】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    NVIDIA GB200超级芯片引领液冷散热新纪元

    ,特别是其单颗B200芯片功耗高达1000W,以及由Grace CPU与两颗Blackwell GPU组成的超级
    的头像 发表于 08-01 16:35 881次阅读

    NVIDIA AI Enterprise荣获金奖

    NVIDIA AI Enterprise、GH200 Grace Hopper 超级芯片和 Sp
    的头像 发表于 05-29 09:27 430次阅读
    <b class='flag-5'>NVIDIA</b> AI Enterprise荣获金奖

    亚马逊AWS暂缓采购英伟达GH200芯片,期待Blackwell更强

    然而,AWS对此予以澄清,称实际上并未取消任何对英伟达的订单。据其代表解释,此次从Grace Hopper芯片转向Blackwell芯片的调
    的头像 发表于 05-22 15:05 671次阅读

    亚马逊未中断英伟达订单,等待Grace Blackwell更强性能

    英国《金融时报》昨日报道称,亚马逊AWS已暂停订购英伟达最新款“超级芯片Grace Hopper,等待性能更强的新品
    的头像 发表于 05-22 11:00 449次阅读

    SiPearl更新Rhea1处理器规格,聚焦HPC与AI推理应用

    据了解,Rhea1处理器将与英伟达GH200 Grace Hopper超级芯片共同为欧洲首台E级超算JUPITER
    的头像 发表于 05-15 11:41 354次阅读

    NVIDIA Grace Hopper点亮AI超级计算新时代

    瑞士 Alps、法国 EXA1-HE 等超级计算机将使用高能效的、基于 Grace 的系统为气候和天气、科学探索等领域提供 200 EFLOPS AI 算力,以支持突破性研究。
    的头像 发表于 05-15 09:46 352次阅读

    NVIDIA通过CUDA-Q平台为全球各地的量子计算中心提供加速

    德国、日本和波兰的超级计算机利用 Grace-Hopper 和量子-经典加速超算平台推进量子计算研究。
    的头像 发表于 05-14 09:15 334次阅读

    步解读英伟达 Blackwell 架构、NVlink及GB200 超级芯片

    提升至 30 倍 GB200 NVL72 集群将多个由 GB200 驱动的系统整合到液冷机架中。连接 36 GB
    发表于 05-13 17:16

    美国首个Grace Hopper架构超算Venado落地:达10 exaFLOPS

    超级计算机是由惠普企业集团(Hewlett Packard Enterprise)打造,其运算能力高达 10 exaFLOPS,它是美国第一款采用英伟达Grace Hopper
    的头像 发表于 04-18 14:37 391次阅读

    NVIDIA推出搭载GB200 Grace Blackwell超级芯片NVIDIA DGX SuperPOD™

    NVIDIA 于太平洋时间 3 月 18 日发布新代 AI 超级计算机 —— 搭载 NVIDIA GB200
    的头像 发表于 03-21 09:49 671次阅读

    NVIDIA 推出 Blackwell 架构 DGX SuperPOD,适用于万亿参数级的生成式 AI 超级计算

    ——  NVIDIA 于今日发布新代 AI 超级计算机 —— 搭载 NVIDIA GB200 Gra
    发表于 03-19 10:56 399次阅读
    <b class='flag-5'>NVIDIA</b> 推出 Blackwell 架构 DGX SuperPOD,适用于万亿参数级的生成式 AI <b class='flag-5'>超级</b>计算

    郭明錤解析:英伟达对GB200期待高,但出货不乐观,供应恐受影响

    作为英伟达的AI芯片巨头,郭明錤认为Grace架构应用实例的增加将助推英伟达在AI领域的领先地位。然而,GH200的出货表现令人失望,且只有亚马逊使用该产品。
    的头像 发表于 03-15 15:20 1201次阅读

    AMI发布适用于GIGABYTE服务器的尖端固件

    全球计算动态固件领域的领军企业AMI今日宣布,将在NVIDIAGH200 Grace Hopper Superchip平台上推出适用于GIGABYTE服务器的MegaRAC SP-X
    的头像 发表于 03-06 09:57 637次阅读

    英伟达Grace-Hopper提供紧密集成的CPU + GPU解决方案

    英伟达Grace-Hopper提供紧密集成的CPU + GPU解决方案,针对生成式人工智能逐渐成为主导的市场环境。
    的头像 发表于 01-02 15:52 892次阅读

    英伟达斥资预购HBM3内存,为H200超级芯片储备产能

    据最新传闻,英伟达正在筹划发布两款搭载HBM3E内存的新品——包括141GB HBM3E的H200 GPU及GH200超级芯片,这也进步说
    的头像 发表于 01-02 09:27 740次阅读