0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

900GB/s,NVLink才是英伟达的互联杀手锏

E4Life 来源:电子发烧友网 作者:周凯扬 2022-03-25 07:03 次阅读

电子发烧友网报道(文/周凯扬)英伟达在GTC22上发布了全新的GraceSuperchip,该芯片中用到了NVLink-C2C技术,而去年公开的GraceHopperSuperchip同样用到了这一技术。根据英伟达超大规模计算部门副总裁IanBuck的说法,Chiplet和异构计算已经成了解决摩尔定律缓慢进展的两大有效手段。而NVLink-C2C这一面向die和chip的互联技术,成了英伟达对愈发普及的Chiplet设计的回应。

Superchip的互联


也许在不少人看来的印象中,提到NVLink会想到下图这个桥接多个高端显卡或专业显卡的RTX NVLinkBridge,其实NVLink这一技术在服务器级别的GPU中反倒更为普遍。从P100的第一代NVLink,到V100的第二代NVLink,A100的第三代NVLink,最后再到如今H100的第四代NVLink。NVLink可以说是跟着GPU架构一路推陈出新了,如今享受第四代NVLink性能的成了Hopper架构的GPU。而在英伟达的SERDES和LINK技术发展下,NVLink也从PCB、MCM走向了硅中介层和晶圆,也因此有了NVLink-C2C。

RTX NVLinkBridge/ 英伟达


GraceSuperchip显然用的是ARM NeoverseN2这一基于Armv9架构的设计,但从芯片图可以看出,单个GraceSuperchip芯片由两个GraceCPU组成,才让总核心数达到了144。而这两个CPU组成的方式,正是NVLink-C2C这一互联技术。我们在开头已经提到,去年公开的GraceHopperSuperchip同样使用了这一互联技术,只不过当时单个GraceHopperSuperchip芯片中互联的,是一个GraceCPU和一个HopperGPU。


NVLink-C2C为英伟达带来的远不止这样一对一的互联方案,而是一整套系统架构上的创新。在NVLink-C2C的支持下,英伟达可以选择一个GraceCPU,两个HopperGPU的设计,或是两个2个GraceCPU+2个HopperGPU,甚至是2个GraceCPU+8个HopperGPU。可以看出,NVLink-C2C为Grace和Hopper在数据中心和HPC应用提供了极大的扩展性。

远超PCIe5.0的性能

英伟达强调,NVLink-C2C具有前所未有的性能,比如处理器与加速器之间900GB/s的高带宽数据传输,以及快速同步和高频率更新下的超低延迟,以及在先进封装英伟达芯片下,能效比可以做到PCIe5.0的25倍,面积效率更是达到90倍。

H100 SXM5 GPU / 英伟达


NVLink-C2C900GB/s的带宽确实优秀,也与第四代NVLink的性能一致,但这并不代表只要用上NVLink就能获得,我们从Hopper架构的GPU H100的参数上也能窥见一二。要想获得900GB/s的带宽性能,必须用到SXM5的大功率卡,而不是PCIe5.0的卡,虽然前者的功耗是后者的两倍,达到了可怕的700W,但PCIe5.0的H100在总体性能和带宽上确实差SXM5一截。

两者在PCIe5.0上的带宽一致,都是128GB/s,但如果用上NVLink,PCIe5.0版本的H100只能达到600GB/s的带宽,与第三代NVLink性能一致,只有SXM5版本下的NVLink才能达到满血的900GB/s。


另外在第四代NVLink和第三代NVSwitch技术的组合下,英伟达推出了NVLinkSwitch这一方案,该系统最多支持到256个GPU,可实现57.6TB/s的总带宽。NVLinkSwitch也是英伟达DGX H100 SuperPOD系统的关键技术,英伟达甚至把自己收购的Mellanox旗下的InfiniBand节点互联技术拿来对比。从上图可以看出与基于A100+InfiniBand的SuperPOD系统相比,基于H100+NVLinkSwitch的SuperPOD系统在对分带宽上是前者的9倍。

开放而不是独占


其实NVLink的存在最初让不少人觉得有些一家独大的意思,毕竟最早NVLink仅仅只是用于多个英伟达GPU之间的互联,仅仅只是为自家的产品提供更多优势而已。而去年发布的GraceHopperSuperchip同样用到了这一技术,但这颗芯片却是英伟达设计的ArmCPU和GPU的互联。

这让人不禁担心,如果英伟达真的成功收购了Arm,会不会利用这一优势来全面垄断数据中心和HPC市场。毕竟Arm自己给出的互联方案CMN-700支持的是CCIX 2.0和CXL 2.0这两大标准互联协议,同时为第三方加速器提供PCIe5.0的连接。但就纸面参数给到的性能看来,NVLink这种专用方案似乎更加吃香一些。

不过Arm作为一家IP公司,目标自然是支持到多样化的加速器,从而全面发展Arm的生态。此前Arm在接受电子发烧友网采访时也表示,Arm期待给市场带来更多的灵活性,支持更多像Grace这样的系统。

NVLink-C2C示意图 / 英伟达


好在英伟达似乎也不打算将NVLink-C2C独占,而是宣布开放这一技术,支持集成英伟达技术的芯片半定制,通过Chiplet技术充分利用自家的GPU、DPU、NIC、CPU和SoC产品,与客户的IP进行NVLink-C2C互联。

尽管收购失败,英伟达与Arm的合作并没有就此停止,英伟达也在GTC22上宣布继续与Arm紧密合作,以支持并在未来改进Arm的AMBA CHI协议,加上对CXL的支持,从而与更多加速器和处理器做到互联。

与此同时,在全行业群策群力,试图打通生态的情况下,英伟达也并不打算将NVLink-C2C作为唯一的可选方案。所以除了NVLink-C2C外,集成了英伟达芯片的定制SoC也可选用前段时日公布的UCIe通用Chiplet互联标准,所以不必将数据中心上的CPU、DPU和GPU一整套都换成英伟达旗下的产品,给到第三方服务器芯片、DPU和加速器一个机会。不过,考虑到这两种互联方式只能选其一,英伟达也强调了NVLink-C2C经过优化,拥有更低的延迟、更高的带宽和更高的能效比,该如何选择还是看厂商自己的考量了。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 芯片
    +关注

    关注

    453

    文章

    50305

    浏览量

    421441
  • 互联技术
    +关注

    关注

    0

    文章

    13

    浏览量

    8326
  • 英伟达
    +关注

    关注

    22

    文章

    3727

    浏览量

    90759
收藏 人收藏

    评论

    相关推荐

    挑战英伟NVLink!英特尔/谷歌等成立联盟,推出UALink 1.0

    ,UALink推广组正在抓紧制定一项新的行业标准,用于推进数据中心内连接的大规模AI系统的高速和低延迟通信,摆脱英伟NVLink在AI加速器连接方面的统治。   对于这项新的行业标准,AMD数据中心
    的头像 发表于 06-03 06:31 2667次阅读
    挑战<b class='flag-5'>英伟</b><b class='flag-5'>达</b><b class='flag-5'>NVLink</b>!英特尔/谷歌等成立联盟,推出UALink 1.0

    微软Azure首获英伟GB200 AI服务器

    微软Azure在社交平台上宣布了一项重要进展,公司已经成功获得了搭载英伟最新GB200超级芯片的AI服务器。这一举措使微软Azure成为全球云服务供应商中首个采用英伟
    的头像 发表于 10-10 17:01 454次阅读

    英伟TITAN AI显卡曝光,性能狂超RTX 409063%!# 英伟# 显卡

    显卡英伟
    jf_02331860
    发布于 :2024年07月24日 17:18:28

    鸿海再获AI领域大单,独家供货英伟GB200 NVLink交换器

    在人工智能(AI)领域的激烈竞争中,鸿海集团再次传来捷报。继成功获得英伟(NVIDIA)GB200 AI服务器代工订单的大份额后,鸿海又独家揽获了GB200关键元件——被誉为“提升算
    的头像 发表于 06-19 15:04 941次阅读

    进一步解读英伟 Blackwell 架构、NVlinkGB200 超级芯片

    200 NVL72的核心,通过NVLink C2C接口连接,提供900GB/s的双向带宽。该设计简化编程过程,支持更大内存需求的万亿参数LLM、变压器模型和大规模模拟模型。GB200计
    发表于 05-13 17:16

    全面解读英伟NVLink技术

    NVLink是一种解决服务器内GPU之间通信限制的协议。与传统的PCIe交换机不同,NVLink带宽有限,可以在服务器内的GPU之间实现高速直接互连。第四代NVLink提供更高的带宽,每条通道达到112Gbps,比PCIe Ge
    发表于 04-22 11:01 1221次阅读
    全面解读<b class='flag-5'>英伟</b><b class='flag-5'>达</b><b class='flag-5'>NVLink</b>技术

    英伟发布最强AI加速卡Blackwell GB200

    英伟在最近的GTC开发者大会上发布了其最新、最强大的AI加速卡——GB200。这款加速卡采用了新一代AI图形处理器架构Blackwell,标志着英伟
    的头像 发表于 03-20 11:38 1051次阅读

    英伟达官宣新一代Blackwell架构,把AI扩展到万亿参数

    基于Chiplet与片间互联技术,800Gb/s RNIC,1.8TB/s NVLink英伟
    的头像 发表于 03-19 14:22 934次阅读
    <b class='flag-5'>英伟</b>达官宣新一代Blackwell架构,把AI扩展到万亿参数

    英伟AI服务器NVLink版与PCIe版有何区别?又如何选择呢?

    在人工智能领域,英伟作为行业领军者,推出了两种主要的GPU版本供AI服务器选择——NVLink版(实为SXM版)与PCIe版。这两者有何本质区别?又该如何根据应用场景做出最佳选择呢?让我们深入探讨一下。
    的头像 发表于 03-19 11:21 5056次阅读
    <b class='flag-5'>英伟</b><b class='flag-5'>达</b>AI服务器<b class='flag-5'>NVLink</b>版与PCIe版有何区别?又如何选择呢?

    英伟市值超过2.3万亿美元

    英伟(NVIDIA)近日在美股市场表现出色,市值再创新高。上周四,英伟股价收高4.47%,成功突破900美元大关,市值更是达到惊人的23
    的头像 发表于 03-11 11:12 725次阅读

    英伟H200性能怎么样

    英伟H200性能卓越,集成了高性能CPU和GPU,通过高速NVLink连接,消除了传统计算瓶颈。其配备了高达141GB的HBM3e高带宽内存,大幅提升了数据处理能力。H200能轻松应
    的头像 发表于 03-07 16:39 937次阅读

    全球最小英伟GH200服务器发布:永擎制造

    该服务器搭载英伟Grace及Hopper人工智能GPU,并通过NVLink实现互联功能以提升整体效能。其中,CPU部分采用72个Arm Neoverse V2核心以及480
    的头像 发表于 02-27 15:29 640次阅读

    英伟推出为中国大陆定制的H20 AI GPU芯片

    尽管英伟H20降低了AI算力,但其具有更低的售价、支持NVLink高速互联技术以及CUDA等优势。
    的头像 发表于 01-03 14:30 1850次阅读

    英伟和华为/海思主流GPU型号性能参考

    一句话总结,H100 vs. A100:3 倍性能,2 倍价格 值得注意的是,HCCS vs. NVLINK的GPU 间带宽。 对于 8 卡 A800 和 910B 模块而言,910B HCCS 的总带宽为392GB/s
    发表于 12-29 11:43 5311次阅读
    <b class='flag-5'>英伟</b><b class='flag-5'>达</b>和华为/海思主流GPU型号性能参考

    #英伟 #显卡 英伟全新旗舰显卡RTX 5090性能暴涨70%

    显卡英伟
    深圳市浮思特科技有限公司
    发布于 :2023年11月20日 14:19:25