0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

英伟达:更强的GPU,更快的AI超算

ss 来源:阿明观察 作者:阿明观察 2020-11-19 18:00 次阅读

在谈英伟达的大战略之前,明确两个重要事件:

英伟达NVIDIA在2019年3月公开以69亿美元现金收购Mellanox,该项交易最终在2020年4月尘埃落定。

英伟达NVIDIA在2020年9月宣布以400亿美元现金加股票的方式,对软银旗下芯片设计公司、全球重要芯片架构提供商Arm进行收购。

这两件事情的成功,为英伟达在芯片领域的发展带来了更深入、更广泛的发展前景,以及更为利好的影响。从资本市场的表现就可见一斑,按周一美东时间11月16日16:00收盘时的价格计算,英伟达的总市值为3335.56亿美元,几乎快超过某友商市值的两倍。友商名字不方便公布,大家可以猜猜看。

前些天业内朋友感叹,这一年,过得太快了。其实,我更想感叹,英伟达的市值飙升得太快了。

但这市值增长的背后,却暗藏着英伟达的更大图谋:超算大战略。

根据最新的TOP500榜单排名显示,英伟达全面领先,无论是针对超算领域的计算、网络还是HPC。

事实上,NVIDIA GPU和网络正在越来越多地用于加速世界上最快的超级计算机。

一是,基于NVIDIA技术构建的超算系统占比绝对领先,包括8个TOP10超算系统在内,近70%进入TOP500榜单的超算系统都基于NVIDIA技术构建。

二是,NVIDIA Selene超级计算机(HPC)在全球超级计算机速度排行中位列第五。该超级计算机基于NVIDIA DGX A100 640GB系统和NVIDIA Mellanox InfiniBand网络构建。

三是,在衡量系统能源效率的Green500榜单中,NVIDIA DGX SuperPOD系统位居榜首,得到业界一致肯定。

从SC20(Supercomputing Conference)超算大会公布的最新TOP500榜单可以看出,英伟达的超算大战略势在必得,将在强化现有技术能力部署的前提下,明确了下一步战略的“三驾马车”:GPU更强、HPC更快、网络更优。面向超算领域,英伟达的战略很明确,一点儿都不用含糊,更强更快更优,也将会是其长期屹立超算领域的制胜法宝。

更强:GPU一路高歌猛进

在超算行业,强中自有强中手。作为超算领域最佳加持者,英伟达在GPU这条发展路上,可谓一路高歌猛进。

AI算力的强大,再一次彰显了英伟达整体超算战略的英明。似乎,这也是英伟达命中注定的好趋势,谁叫AI行业化,行业AI化的智能化时代来得如此之快呢。

针对数据中心GPU需求来看,英伟达以A100、A40、V100、T4、RTX 6000、RTX 8000多款业界知名产品系列既已覆盖。

然而术业有专攻。针对大流量数据工作负载方面,AI算力的需求特别突出,但是随着NVIDIA A100 80GB GPU的出现,非常有助于各种训练、推理和超级计算应用等方面的发展,在速度和性能上得以前所未有的满足。

作为英伟达创始人、现任CEO黄仁勋亲手推出的GPU力作,A100第一代产品是在几个月前的英伟达GTC 2020大会上首次亮相的。

因为是基于英伟达安培(Ampere)架构的首款图形处理器,所以备受业界关注。当时A100引入了有着里程碑式意义的Tensor Cores双精度计算技术。要知道以前在NVIDIA V100 Tensor Core GPU上需要10个小时的双精度模拟作业,在A100上4小时即可完成。

NVIDIA A100 Tensor Core GPU针对AI、数据分析和高性能计算 (HPC)等应用上,实现了更强的加速,针对极其严峻的计算挑战上有了更大作为。A100高效扩展性也很突出,数千个A100 GPU在同一个系统中成功实现集成,也可以利用NVIDIA多实例 GPU (MIG) 技术将每个A100 划分割为七个独立的GPU实例,获得对各种规模工作负载的加速。

需要注意的是,这里针对HPC性能的对比中,仅限于NVIDIA V100 GPU第一代产品。

A100的出现,对数据中心大规模的计算带来了更强的优化效果,不仅统一了人工智能训练和推理,同时将灵活、弹性加速的实现可能性向前又推进一步。

作为A100 GPU系列中的最新力作,A100 80GB GPU在继承了第一代A100 GPU的优势基础上,内存比第一代A100 GPU提升一倍,也支持NVIDIA HGX AI超级计算平台。

大内存容量和高带宽,对于AI与HPC实际应用的好处有目共睹,毕竟在这个领域中一切都要以速度决胜负。全新A100采用HBM2e技术,可将A100 40GB GPU的高带宽内存增加一倍至80GB,提供每秒超过2TB的内存带宽。这使得数据可以快速传输到全球最快的数据中心GPU A100上,使研究人员能够更快地加速其应用,处理最大规模的模型和数据集。

由此,我们可以很容易看到全新一代的增强A100 80GB GPU在HPC领域的表现更为突出,相比最早一代2016年代表之作P100 GPU,A100 80GB GPU实现了HPC应用性能的11倍提升。

不仅如此,在深度学习、数据分析、能效方面都获得了前所未有的优化。

对于如RNN-T等自动语言识别模型的AI推理,单个A100 80GB MIG实例可处理更大规模的批量数据,将生产中的推理吞吐量提高1.25倍。

在TB级零售大数据分析基准上,A100 80GB将其性能提高了2倍,使其成为可对最大规模数据集进行快速分析的理想平台。随着数据的动态更新,企业可以实时做出关键决策。

对于科学应用,A100 80GB可为天气预报和量子化学等领域提供巨大的加速。材料模拟软件Quantum Espresso采用单节点A100 80GB实现了近2倍的吞吐量提升。

从这几个比较典型的需要大量数据存储空间的应用来看,A100 80GB GPU在应用性能上确实成为新一代GPU的亮点。由此在架构特性上可以总结为几点:

一是,采用第三代Tensor Core核心。通过全新TF32,将上一代Volta架构的AI吞吐量提高多达20倍。通过FP64,将HPC性能提高多达2.5倍。通过 INT8,将AI推理性能提高多达20倍,并且支持BF16数据格式。

二是,采用更大、更快的HBM2e GPU内存。从而使内存容量增加一倍,在业内率先实现2TB/s以上的内存带宽。

三是,采用MIG技术,将单个独立实例的内存增加一倍,可最多提供七个MIG,每个实例具备10GB内存。

四是,采用结构化稀疏技术,将推理稀疏模型的速度提高两倍。

五是,第三代NVLink和NVSwitch,相较于上一代互连技术,可使GPU之间的带宽增加至原来的两倍,将数据密集型工作负载的GPU数据传输速度提高至每秒600 gigabytes。

AI能力的强大,表现在GPU产品的推陈出新,以及GPU为行业应用带来革命性的改变。这就是英伟达的过人之处,好技术带来行业改变和产业格局变化。

更智即更强。由此而言,对于超算行业的发展来说,更智能也就自然表现得更为强大了。

更快:HPC没有最快只有更快

超算的核心在于快,竞争的价值在于更快。在超算领域只有在超算系统上实现更快的速度,才能实现超算系统整体能力的更强。

作为强化AI算力的全球领先厂商,英伟达新一代DGX Station A100和DGX A100 640GB移动数据中心引起了我特别的注意,这也是在 SC20超级计算大会上与A100 80GB GPU同期发布的重量级产品。

DGX Station A100的AI性能可以达到2.5 petaflops,通过NVIDIA NVLink完全互连,实现四个全新NVIDIA A100 80GB GPU融合在一起的工作组服务器,同时GPU内存高达320GB。更为特别是DGX Station A100也是唯一支持NVIDIA多实例GPU技术(MIG)的工作组服务器。借助MIG,单一DGX Station A100最多可提供28个独立GPU实例以运行并行任务,并可在不影响系统性能的前提下支持多用户应用。

这也是全球唯一的千万亿级工作组服务器,如此性能超快的DGX Station A100,被业内称之为一体式AI数据中心,也就是说,用户借助一台DGX Station A100,就可以在任何地方部署AI超算中心了。

如此说来,作为服务器级的系统,DGX Station A100无需配备数据中心级电源或散热系统,却具有与NVIDIA DGX A100数据中心系统相同的远程管理功能。当数据科学家和研究人员在家中或实验室办公时,系统管理员可轻松地通过远程连接,执行任何管理任务。

作为一台随处可得的AI超级计算机,性能上的突出表现尤为吸引人。为支持诸如BERT Large推理等复杂的对话式AI模型,DGX Station A100比上一代DGX Station提速4倍以上。对于BERT Large AI训练,其性能提高近3倍。

此外,全新DGX A100 640GB系统也将集成到企业版NVIDIA DGX SuperPOD解决方案,使机构能基于以20 个DGX A100系统为单位的一站式AI超级计算机,实现大规模AI模型的构建、训练和部署。

配备A100 80GB GPU的NVIDIA DGX SuperPOD系统将率先安装于英国的Cambridge-1超级计算机,以加速推进医疗健康领域研究,以及佛罗里达大学的全新HiPerGator AI超级计算机,该超级计算机将赋力这一“阳光之州”开展AI赋能的科学发现。

由此可见,新一代DGX Station A100和DGX A100 640GB移动数据中心的出现,将给AI超级计算机的行业格局带来一次新的震动。全球云观察分析,这有望将超算从传统超算时代推向真正的智能超算时代,那么英伟达必定就是其中举足轻重的使能者之一。同时AI超算上的创新也将因为NVIDIA A100 80GB GPU而再次迎来新的发展,对AI超算的行业应用普及带来了更大的发展潜力与空间。

更优:高效网络性能空前

任何超算系统,离开了高效的网络,基本上谈不上超算。可见网络对于超算系统整体价值的贡献缺一不可。

为此,英伟达并购Mellanox后,对于InfiniBand高效网络的性能发挥得到了空前的提升。

400G InfiniBand系统在之前听说过业内传闻,没有想到英伟达如今很快变成了现实。“NVIDIA Mellanox 400G InfiniBand的海量吞吐量和智能加速引擎使HPC、AI和超大规模云基础设施能够以更低的成本和复杂性,实现了全球最具挑战性的网络互连性能。”

为了支撑更强更快的AI超算的需要,Mellanox 400G InfiniBand带来的加速能力也是值得一看。Mellanox NDR 400G InfiniBand交换机,可提供3倍的端口密度和32倍的AI加速能力。并且将框式交换机系统的聚合双向吞吐量提高了5倍,达到1.64 petabits/s,减少交换机使用量获得更大工作负载的支撑,必然对用户整体应用成本带来更良好的回报。

当然,好的产品,特别是在行业领域有着技术创新领先性的产品,往往赢得市场的认同更为广泛。

从一组财报数据来看,英伟达截至2020年7月26日的第二季度财报,营收为38.7亿美元,创历史新高,较去年同期的25.8亿美元增长50%,较上一季度的30.8亿美元增长26%。

其中有一个关键信息就是该季度数据中心方面业务收入出奇高增长,财报期内为17.5亿美元,为2019年同期收入6.55亿美元的两倍多。这也是数据中心领域带来的收入首次出现超越英伟达成立以来的主营视频游戏领域业务,财报期内视频游戏业务为16.5亿美元。

就此来说,英伟达在数据中心取得高速增长成绩,与收购Mellanox有着密切相关。

可见,英伟达Mellanox在高效网络方面的性能表现,已经赢得了用户的心声,特别是在超算领域,英伟达Mellanox的InfiniBand技术一直备受瞩目。

小结:AI超算的未来已来

英伟达的超算大战略,必然就是将AI加入到HPC中,并扩展至传统超级计算中心之外的平台,从而引发了全球AI超算大趋势。

与此同时,创新效率超高的英伟达,在加速计算领域、HPC、网络三大领域分别发布了新一代A100 80GB GPU处理器、新一代DGX StationA100和DGX A100 640GB移动数据中心、Mellanox 400G InfiniBand系统多款重磅新品,可谓三驾马车并驾齐驱,以应对全球爆发式增长的数据处理需求和日益凸显的机器学习需要。这对全球超算整体格局的变化,带来非常积极的推动作用。

更强的GPU,更快的AI超算,更优的高效网络,也将成为英伟达持续向前发展的重要三部曲。

责任编辑:xj

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4743

    浏览量

    129008
  • NIVIDA
    +关注

    关注

    0

    文章

    9

    浏览量

    7211
  • 超算
    +关注

    关注

    1

    文章

    115

    浏览量

    9094
收藏 人收藏

    评论

    相关推荐

    AI大模型不再依赖英伟GPU?苹果揭秘自研大模型

      电子发烧友网报道(文/梁浩斌)过去几年中爆发的AI力需求,英伟GPU成为了最大的赢家,无论是自动驾驶还是
    的头像 发表于 08-05 06:07 4016次阅读
    <b class='flag-5'>AI</b>大模型不再依赖<b class='flag-5'>英伟</b><b class='flag-5'>达</b><b class='flag-5'>GPU</b>?苹果揭秘自研大模型

    英伟收购AI初创公司Run:ai

    :ai作为一家专注于AI云计算软件平台开发的初创公司,其产品以高效利用高性能GPU资源为核心,致力于为用户提供更快速、更便捷的机器学习加速方案。通过此次收购,
    的头像 发表于 12-31 10:46 134次阅读

    软银携手英伟打造日本最强AI

    软银集团近日宣布,将率先采用英伟最新的Blackwell平台,打造日本最强的AI超级计算机。此举旨在满足日本在人工智能领域快速发展的迫切需求,推动国内AI技术的创新与应用。
    的头像 发表于 11-14 16:25 302次阅读

    Inflection AI转向英特尔Gaudi 3,放弃英伟GPU

    近日,人工智能技术公司Inflection AI宣布了一项重要决策,其最新的企业平台将放弃采用英伟(Nvidia)的GPU,转而选择英特尔的Gaudi 3加速器。
    的头像 发表于 10-10 17:21 503次阅读

    AI芯片巨头英伟4% 英伟市值暴增7500亿

    谁是美股最靓的仔?在人工智能浪潮之下AI芯片巨头英伟肯定有一席之地,特别是现在全球资本市场动荡之际,业界分析师多认为英伟是最佳“反弹股”
    的头像 发表于 08-13 15:33 1106次阅读

    英伟TITAN AI显卡曝光,性能狂RTX 409063%!# 英伟# 显卡

    显卡英伟
    jf_02331860
    发布于 :2024年07月24日 17:18:28

    英伟将全面转向开源GPU内核模块

    英伟公司近期宣布了一项重大决策,即全面转向开源GPU内核模块,并计划最终以此取代闭源驱动程序。这一战略转变标志着英伟在开源领域迈出了重要
    的头像 发表于 07-19 15:26 572次阅读

    英伟GPU新品规划与HBM市场展望

    在COMPUTEX 2024主题演讲中,英伟(NVIDIA)公布了其GPU产品的未来规划。据英伟透露,B100、B200和GB200系列
    的头像 发表于 06-13 09:44 826次阅读

    进一步解读英伟 Blackwell 架构、NVlink及GB200 超级芯片

    计算工作负载、释放百亿亿次计算能力和万亿参数人工智能模型的全部潜力提供关键基础。 NVLink释放数万亿参数AI模型的加速性能,显著提升大型多GPU系统的可扩展性。每个英伟Black
    发表于 05-13 17:16

    英伟、AMD、英特尔GPU产品及优势汇总

    电子发烧友网报道(文/李弯弯)随着人工智能技术的快速发展,GPU的市场规模在全球范围内持续提升。目前,GPU市场主要由英伟、AMD和英特尔等几家大公司主导。其中,
    的头像 发表于 05-10 00:59 5229次阅读

    英伟发布新一代AI芯片架构Blackwell GPU

    近日,英伟首席执行官黄仁勋在GTC 2024会议上发表主题演讲,重磅推出全新AI芯片架构Blackwell GPU。这一创新技术的首款芯片产品命名为GB200,标志着
    的头像 发表于 03-26 11:19 895次阅读

    英伟预计2026年营收将1300亿美元,AI领域仍居主导地位

    该分析师特别指出,英伟已在AI GPU市场拥有绝对优势,现阶段主流产品H100 AI GPU
    的头像 发表于 03-14 14:36 571次阅读

    英伟H200力怎么样

    英伟H200的力非常强大。作为新一代AI芯片,H200在性能上有了显著的提升,能够处理复杂的AI任务和大数据分析。然而,具体的
    的头像 发表于 03-07 16:15 2164次阅读

    AI引爆英伟业绩 美国股市因英伟季绩强劲上涨

    AI引爆英伟业绩 美国股市英伟季绩强劲上涨 AI的持续火爆引发一场全球资本市场狂欢,而且随着
    的头像 发表于 02-23 19:37 1324次阅读

    英伟大幅缩短AI GPU交付周期

    根据瑞银分析师最近提供给投资者的备忘录,英伟已经显著缩短了其AI GPU的交付周期。这一周期已经从去年年底的8-11个月迅速缩短至目前的3-4个月。这一变化引发了市场的广泛关注,分析
    的头像 发表于 02-18 17:31 870次阅读