0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

英伟达发布基于Ampere架构的GPUA100

h1654155282.3538 来源:半导体行业观察 作者:半导体行业观察 2020-11-17 15:51 次阅读

据该公司CEO黄仁勋介绍,A100采用台积电当时最先进的7纳米工艺打造,拥有540亿个晶体管,面积高达826mm2,GPU的最大功率也达到了400W。又因为同时搭载了三星HBM2显存、第三代TensorCore和带宽高达600GB/s的新版NVLink,英伟达的A100在多个应用领域也展现出强悍的性能。

从英伟达提供的数据可以看到,如果用PyTorch框架跑AI模型,相比上一代V100芯片,A100在BERT模型的训练上性能提升6倍,BERT推断时性能提升7倍。而根据MLPerf组织在十月底发布的最新推理基准测试(Benchmark)MLPerfInferencev0.7结果,英伟达A100TensorCoreGPU在云端推理的基准测试性能是最先进英特尔CPU的237倍。

但英伟达不止步于此。在昨日,他们发布了面向AI超级计算的全球最强GPU——A10080GB;与此同时,他们还带来了一体式AI数据中心NVIDIADGXStationA100以及NVIDIAMellanox400GInfiniBand产品

全球最强的AI超算GPU

据英伟达方面介绍,公司全新的A10080GBGPU的最大特点在于采用了HBM2E内存技术,能将A10040GBGPU的高带宽内存增加一倍至80GB,这样的设计也让英伟达成为业内首个实现了2TB/s以上的内存带宽的企业。

“若想获得HPC和AI的最新研究成果,则需要构建最大的模型,而这需要比以往更大的内存容量和更高的带宽。A10080GBGPU所提供的内存是六个月前推出的前代产品的两倍,突破了每秒2TB的限制,使研究人员可以应对全球科学及大数据方面最严峻的挑战。”NVIDIA应用深度学习研究副总裁BryanCatanzaro表示。

此外,第三代TensorCore核心、MIG技术、结构化稀疏以及第三代NVLink和NVSwitch,也是全新GPU能够获得市场认可的保证。

从英伟达提供的资料我们可以看到,该公司的第三代TensorCore核心通过全新TF32,能将上一代Volta架构的AI吞吐量提高多达20倍;通过FP64,新核心更是能将HPC性能提高多达2.5倍;而通过INT8,新核心也可以将AI推理性能提高多达20倍,并且支持BF16数据格式。

MIG技术则能将单个独立实例的内存增加一倍,并可最多提供七个MIG,让每个实例具备10GB内存。英伟达方面表示,该技术是一种安全的硬件隔离方法,在处理各类较小的工作负载时,可实现GPU最佳利用率。例如在如RNN-T等自动语言识别模型的AI推理上,单个A10080GBMIG实例可处理更大规模的批量数据,将生产中的推理吞吐量提高1.25倍。

至于结构化稀疏,则可以将推理稀疏模型的速度提高2倍;包括第三代NVLink和NVSwitch在内的新一代互连技术,则可使GPU之间的带宽增加至原来的两倍,将数据密集型工作负载的GPU数据传输速度提高至每秒600gigabytes。

除了性能提升以外,基于A10040GB的多样化功能设计的A10080GBGPU也成为需要大量数据存储空间的各类应用的理想选择。

以DLRM等推荐系统模型为例,他们为AI训练提供了涵盖数十亿用户和产品信息的海量表单。但A10080GB可实现高达3倍加速,使企业可以重新快速训练这些模型,从而提供更加精确的推荐;在TB级零售大数据分析基准上,A10080GB将其性能提高了2倍,使其成为可对最大规模数据集进行快速分析的理想平台;对于科学应用,A10080GB可为天气预报和量子化学等领域提供巨大的加速。

“作为NVIDIAHGXAI超级计算平台的关键组件,A10080GB还可训练如GPT-2这样的、具有更多参数的最大模型。”英伟达方面强调。

下一代400GInfiniBand

在发布A10080GB的同时,英伟达还带了下一代的400GInfiniBand产品。在讲述英伟达的新品之前,我们有必要先了解一下什么是InfiniBand。

所谓InfiniBand,是一种网络通信协议,它提供了一种基于交换的架构,由处理器节点之间、处理器节点和输入/输出节点(如磁盘或存储)之间的点对点双向串行链路构成。每个链路都有一个连接到链路两端的设备,这样在每个链路两端控制传输(发送和接收)的特性就被很好地定义和控制。而早前被英伟达收购的Mellanox则是这个领域的专家。

资料显示,Mellanox为服务器,存储和超融合基础设施提供包括以太网交换机,芯片和InfiniBand智能互连解决方案在内的大量的数据中心产品,其中,更以InfiniBand互连,是这些产品中重中之重。

据英伟达介绍,公司推出的第七代MellanoxInfiniBandNDR400Gb/s上带来了更低的延迟,与上一代产品相比,新的产品更是实现了数据吞吐量的翻倍。又因为英伟达为这个新品带来了网络计算引擎,这就让其能够获得额外的加速。

英伟达进一步指出,作为一个面向AI超级计算的业界最强大的网络解决方案,MellanoxNDR400GInfiniBand交换机,可提供3倍的端口密度和32倍的AI加速能力。此外,它还将框式交换机系统的聚合双向吞吐量提高了5倍,达到1.64petabits/s,从而使用户能够以更少的交换机,运行更大的工作负载。

“基于MellanoxInfiniBand架构的边缘交换机的双向总吞吐量可达51.2Tb/s,实现了具有里程碑意义的每秒超过665亿数据包的处理能力。”英伟达方面强调。而通过提供全球唯一的完全硬件卸载和网络计算平台,NVIDIAMellanox400GInfiniBand实现了大幅的性能飞跃,可加快相关研究工作的进展。

“我们的AI客户的最重要的工作就是处理日益复杂的应用程序,这需要更快速、更智能、更具扩展性的网络。NVIDIAMellanox400GInfiniBand的海量吞吐量和智能加速引擎使HPC、AI和超大规模云基础设施能够以更低的成本和复杂性,实现无与伦比的性能。”NVIDIA网络高级副总裁GiladShainer表示。

从他们提供的数据我们可以看到,包括Atos、戴尔科技富士通、浪潮、联想和SuperMicro等公司在内的全球领先的基础设施制造商,计划将Mellanox400GInfiniBand解决方案集成到他们的企业级产品中去。此外,包括DDN、IBMStorage以及其它存储厂商在内的领先的存储基础设施合作伙伴也将支持NDR。

全球唯一的千兆级工作组服务器

为了应对不同开发者对AI系统的需求,在推出芯片和连接解决方案的同时,英伟达在2017年还推出一体式的AI数据中心NVIDIADGXStation。作为世界上首款面向AI开发前沿的个人超级计算机,开发者只需要对其执行简单的设置,就可以用Caffe、TensorFlow等去做深度学习训练、高精度图像渲染和科学计算等传统HPC应用,避免了装驱动和配置环境等麻烦,这很适合高校、研究所、以及IT力量相对薄弱的企业。

昨日,英伟达今日发布了全球唯一的千兆级工作组服务器NVIDIADGXStationA100。作为开创性的第二代人工智能系统,DGXStationA100加速满足位于全球各地的公司办公室、研究机构、实验室或家庭办公室中办公的团队对于机器学习和数据科学工作负载的强烈需求。而为了支持诸如BERTLarge推理等复杂的对话式AI模型,DGXStationA100比上一代DGXStation提速4倍以上。对于BERTLargeAI训练,其性能更是提高近3倍。

从性能来看,英伟达方面表示,DGXStationA100的AI性能可达2.5petaflops,是唯一一台配备四个通过NVIDIANVLink完全互连的全新NVIDIAA100TensorCoreGPU的工作组服务器,可提供高达320GB的GPU内存,能够助力企业级数据科学和AI领域以最速度取得突破。

作为唯一支持NVIDIA多实例GPU(MIG)技术的工作组服务器,单一的DGXStationA100最多可提供28个独立GPU实例以运行并行任务,并可在不影响系统性能的前提下支持多用户。

为了支持更大规模的数据中心工作负载,DGXA100系统还将配备全新NVIDIAA10080GBGPU使每个DGXA100系统的GPU内存容量增加一倍(最高可达640GB),从而确保AI团队能够使用更大规模的数据集和模型来提高准确性。

“全新DGXA100640GB系统也将集成到企业版NVIDIADGXSuperPODTM解决方案,使机构能基于以20个DGXA100系统为单位的一站式AI超级计算机,实现大规模AI模型的构建、训练和部署。”英伟达方面强调。

该公司副总裁兼DGX系统总经理CharlieBoyle则表示:“DGXStationA100将AI从数据中心引入可以在任何地方接入的服务器级系统。数据科学和AI研究团队可以使用与NVIDIADGXA100系统相同的软件堆栈加速他们的工作,使其能够轻松地从开发走向部署。”

从英伟达提供的资料我们可以看到,配备A10080GBGPU的NVIDIADGXSuperPOD系统将率先安装于英国的Cambridge-1超级计算机,以加速推进医疗保健领域研究,以及佛罗里达大学的全新HiPerGatorAI超级计算机,该超级计算机将赋力这一“阳光之州”开展AI赋能的科学发现。

在今年发布的第二季财报上,英伟达数据中心业务首超游戏,成为公司营收最大的业务板块。从营收增长上看,与去年同期相比,英伟达数据中心业务业务大幅增长167%,由此可以看到英伟达在这个市场影响力的提升以及公司对这个市场的信心。

考虑到公司深厚的技术积累和过去几年收购所做的“查漏补缺”,英伟达必将成为Intel在数据中心的最强劲挑战者。
责任编辑人:CC

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 英伟达
    +关注

    关注

    22

    文章

    3780

    浏览量

    91181
  • Ampere
    +关注

    关注

    1

    文章

    67

    浏览量

    4546
收藏 人收藏

    评论

    相关推荐

    英伟进军ARM架构CPU市场,预计2025年推出新产品线

    近日,英伟公司传出了一则令人瞩目的消息:该公司正在积极开发一款基于ARM架构的新型CPU。这一消息不仅证实了之前业界关于英伟ARM PC
    的头像 发表于 11-11 15:33 321次阅读

    英伟Blackwell架构揭秘:下一个AI计算里程碑?# 英伟# 英伟Blackwell

    英伟行业资讯
    jf_02331860
    发布于 :2024年08月26日 10:58:09

    英伟或取消B100转用B200A代替

    今年3月份,英伟在美国加利福尼亚州圣何塞会议中心召开的GTC 2024大会上推出了Blackwell架构GPU。原定于今年底出货的B100/B200被寄予厚望,将替代现行H
    的头像 发表于 08-08 17:19 533次阅读

    英伟TITAN AI显卡曝光,性能狂超RTX 409063%!# 英伟# 显卡

    显卡英伟
    jf_02331860
    发布于 :2024年07月24日 17:18:28

    英伟Blackwell架构,行业首选

    的半导体技术路径图,首度公开了即将面世的下一代芯片——Rubin平台,旨在接替现有的Blackwell。   回顾过往,NVIDIA始终保持着每两年发布一次全新架构的传统,从2020年的Ampere
    的头像 发表于 06-05 15:28 658次阅读

    英伟加速AI芯片迭代,推出Rubin架构计划

    在近日举办的COMPUTEX 2024展会上,英伟CEO黄仁勋再次展现了公司在人工智能(AI)芯片领域的雄心壮志。他公布了下一代AI芯片架构“Rubin”,这是继今年3月发布的“Bl
    的头像 发表于 06-03 11:36 819次阅读

    进一步解读英伟 Blackwell 架构、NVlink及GB200 超级芯片

    2024年3月19日,[英伟]CEO[黄仁勋]在GTC大会上公布了新一代AI芯片架构BLACKWELL,并推出基于该架构的超级芯片GB200,将助推数据处理、工程模拟、电子设计自动化
    发表于 05-13 17:16

    英伟发布新一代AI芯片架构Blackwell GPU

    近日,英伟首席执行官黄仁勋在GTC 2024会议上发表主题演讲,重磅推出全新AI芯片架构Blackwell GPU。这一创新技术的首款芯片产品命名为GB200,标志着英伟
    的头像 发表于 03-26 11:19 892次阅读

    英伟发布最强AI加速卡Blackwell GB200

    英伟在最近的GTC开发者大会上发布了其最新、最强大的AI加速卡——GB200。这款加速卡采用了新一代AI图形处理器架构Blackwell,标志着
    的头像 发表于 03-20 11:38 1147次阅读

    英伟H200和A100的区别

    英伟H200和A100两款芯片在性能、架构、内存以及应用场景等多个方面存在显著的区别。
    的头像 发表于 03-07 16:23 3664次阅读

    英伟H200和A100的差异

    英伟H200和A100在多个方面存在差异。
    的头像 发表于 03-07 16:18 2578次阅读

    英伟H200和H100的比较

    英伟H200和H100是两款不同的AI芯片,它们各自具有独特的特点和优势。以下是关于这两款芯片的一些比较。
    的头像 发表于 03-07 15:53 4703次阅读

    英伟显卡价格

    英伟显卡的价格因其型号、性能、发布时间等因素而有所不同。
    的头像 发表于 03-01 16:39 1200次阅读

    英伟:预计下一代AI芯片B100短缺,计划扩产并采用新架构

    近期热门的 H100 芯片运期短缩数天后,英伟新型 AI 旗舰芯片 B100搭载全新的 Blackwell,有望使 AI 计算性能提升至 2~3 倍。鉴于 AI 芯片市场需求旺盛,外
    的头像 发表于 02-25 09:29 934次阅读