0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

英伟达又推超级芯片!新一代GH200 Grace Hopper超级芯片炸场

传感器技术 来源:芯师爷 2023-08-10 10:46 次阅读

北京时间8月8日23:00,在全球首屈一指的计算机图形和交互技术会议SIGGRAPH上,英伟达CEO黄仁勋一袭黑皮衣,以雷霆万钧之势再度登台,对台下数千名观众表示,“生成式人工智能时代即将到来,如果你相信的话,那就是人工智能的iPhone时代。”

在随后近一个半小时的演讲中,黄仁勋宣布了英伟达的最新技术突破:

硬件方面,黄仁勋推出了新一代GH200 Grace Hopper超级芯片,将搭载全球首款HBM3e处理器,预计于2024年第二季投产,专为加速计算和生成式 AI 时代而打造。同时,还重磅发布了功能强大的新型RTX工作站、三款全新桌面工作站Ada Generation GPU,以及搭载全新NVIDIA L40S GPU的全新 NVIDIA OVX服务器。

软件方面,为了推动人工智能部署,英伟达推出了AI Workbench、AI Enterprise 4.0,以及Hugging Face等重磅武器,旨在和行业携手,一同推动人工智能和生成式AI走向下一个浪潮尖峰。

新一代 GH200 Grace Hopper 超级芯片炸场

通常,使用人工智能模型的过程至少分为两个部分:训练和推理。训练部分,是使用大量数据来训练人工智能系统,开发出具有特定功能的神经网络模型,动辄需要耗费数月时间才能完成;推理部分,则是将新的数据输入训练好的模型,让它推理出各种结论,并且几乎持续进行。 这两个环节都需要高性能GPU进行支持,如果支持不到位的话,将影响大模型的精准度。

为了持续推动AI发展,早在2022年初,英伟达宣布了Grace Hopper超级芯片,即NVIDIA GH200,它将72核Grace CPU与Hopper GPU相结合,提供1 EFLOPS的AI算力和144TB的高速存储,并于今年 5 月全面投产。

昨晚的SIGGRAPH大会上,也就是在这款超级芯片全面投产后不到三个月,英伟达推出了功能更强大的芯片版本——新一代NVIDIA GH200 Grace Hopper超级芯片,将提供卓越的内存技术和带宽,以此提高吞吐量,提升无损耗连接GPU聚合性能的能力,并且拥有可以在整个数据中心轻松部署的服务器设计。

“你几乎可以在GH200上运行任何你想要的大型语言模型,它会疯狂地进行推理。”黄仁勋说,“大型语言模型的推理成本将大幅下降。”

与当前一代产品相比,新一代GH200拥有基本相同的“基因”:其 72 核 Arm Neoverse V2 Grace CPU、Hopper GPU 及其 900GB/秒 NVLink-C2C 互连均保持不变。核心区别是它搭载了全球第一款HBM3e内存,将不再配备今年春季型号的 96GB HBM3 vRAM 和 480GB LPDDR5x DRAM,而是搭载500GB的LPDDR5X以及141GB的HBM3e存储器,实现了5TB/秒的数据吞吐量。

6eb6c9a4-3709-11ee-9e74-dac502259ad0.png

HBM3内存 VS HBM3e内存参数对比

英伟达表示,HBM3e内存技术带来了50%的速度提升,总共提供了10TB/秒的组合带宽。能够运行比先前版本大3.5倍的模型,并以3倍的内存带宽提高性能

此外,英伟达目前正在开发一款新的双GH200基础NVIDIA MGX服务器系统,将集成两个下一代Grace Hopper超级芯片。在新的双GH200服务器中,系统内的CPU和GPU将通过完全一致的内存互连进行连接,这个超级GPU可以作为一个整体运行,提供144个Grace CPU核心、8千万亿次的计算性能以及282GB的HBM3e内存,从而能够适用于生成式AI的巨型模型。

对于企业客户,英伟达GPU训练AI模型成本已非常昂贵,但黄仁勋仍强调其产品的“性价比”:同样使用1亿美元打造数据中心,可以购得8800块x86处理器或2500套GH200,但后者的AI推理性能是前者的12倍,能效达20倍

于是我们又听到了黄仁勋“金牌导购”的名言:the more you buy, the more you save(买的越多,省的越多)。

据悉,英伟达计划销售GH200的两种版本:一种是包含两个可供客户集成到系统中的芯片,另一种则是结合了两种Grace Hopper设计的完整服务器系统。

全新的GH200这款产品将于2024年第二季投产,售价暂未透露。

四款全新显卡+新款OVX服务器:

全方面涵盖生成式AI开发

除了适用于前沿大语言模型的GH200 ,英伟达在桌面AI工作站方面,推出了RTX 6000、RTX 5000、RTX 4500和RTX 4000四款新显卡,以及搭载全新L40S Ada GPU的新款OVX服务器。

1

RTX 6000 Ada GPU

为提供更多的计算能力,促进生成式AI和数字化时代的开发和内容创作,英伟达正在和全球制造商,包括惠普、联想、BOXX、戴尔等,推出功能强大的新型 RTX 工作站。

新的RTX工作站提供多达4个NVIDIA RTX 6000 Ada GPU,每个GPU都配备48GB内存(总共 192GB),单个桌面工作站可以提供高达5.8 TFLOPS 算力。

2

三款全新桌面工作站 GPU

黄仁勋还宣布推出三款全新桌面工作站Ada Generation GPU :NVIDIA RTX 5000、RTX 4500和RTX 4000,旨在为全球专业人士提供最新的 AI、图形和实时渲染技术。

NVIDIA RTX 5000现已上市(售价 4,000 美元),提供32GB GDDR6内存,NVIDIA RTX 4500 和 4000 将于今年秋季上市(售价分别为 1,250 美元和 2,250 美元),两者都是双槽 GPU,分别提供和24GB GDDR6内存、20GB GDDR6内存。

3

OVX 服务器产品

此外,英伟达还推出了搭载L40S GPU 的 OVX 服务器产品,每台服务器最多可以装八个L40S GPU,每个GPU有 48GB 内存。

对于具有数十亿参数和多种数据模态的复杂AI工作负载,相较于A100 Tensor Core GPU,L40S 能够实现1.2倍的生成式AI推理性能和 1.7 倍的训练性能,旨在满足AI训练和推理、3D 设计和可视化、视频处理和工业数字化等计算密集型应用的需求。

软件生态全方位部署:

让所有人参与生成AI

除了硬件产品,软件方面,英伟达推出了AI Workbench、AI Enterprise 4.0,以及Hugging Face等重磅武器:

AI Workbench是为开发人员提供了一个统一、易于使用的工具包,将需要用于生成式AI工作的一切打包在一起,主要是为了降低企业启动 AI 项目的门槛。大会上,黄仁勋在强调,为了推动AI技术普惠,必须让其有可能在几乎任何地方运行,让所有人都能参与生成式 AI。因此,AI Workbench将支持在本地机器上进行模型的开发和部署,而不是云服务上。

借助它,开发人员可以只需点击几下就可以定制和运行生成式AI。据称,包括戴尔、惠普、Lambda、联想和Supermicro,都正采用AI Workbench。

AI Enterprise 4.0是英伟达发布的最新版企业软件平台,可提供生产就绪型生成式AI工具,使企业能够访问采用生成式AI所需的工具,同时还提供大规模企业部署所需的安全性和API稳定性。

同时,黄仁勋还宣布英伟达与拥有 200 万用户的初创公司Hugging Face 合作,这将使得数百万大型语言模型开发者和其他高级 AI 应用程序开发人员,能够轻松实现生成式 AI 超级计算。

开发人员将能够在Hugging Face平台内访问NVIDIA DGX Cloud AI 超级计算,以训练和微调先进的 AI 模型。据悉,Hugging Face 社区已分享超过 25 万个模型和 5 万个数据集。对此,黄仁勋表示,这将是一项全新的服务,将世界上最大的 AI 社区与世界上最好的训练和基础设施连接起来。

写在最后:

AI的生产力爆炸时代,正在加速到来

随着英伟达一个接一个新产品和新服务的揭晓,我们似乎也看到生成式AI的生产力爆炸时代正在加速到来。

2022年底,ChatGPT问世后,迅速在全世界引起了AI狂潮,在这波狂潮中,英伟达凭借其数据中心GPU的核心技术优势,成为人工智能芯片市场市场主导者。

如今,全球约90%以上的大模型都在使用英伟达的GPU芯片,其股价也在今年以来飙升了逾200%,赚了个盆满钵满,上市14年后成功跻身万亿美元市值俱乐部。而实现这一目标,硅谷巨头们诸如苹果用了37年、微软用了33年、亚马逊用了21年,特斯拉跑得最快,只用了11年。

目前GPU价格仍在上涨,已然成为人工智能基础设施的“硬通货”,海外甚至已有创业企业开始利用GPU进行抵押融资。

eBay网站显示,英伟达旗舰级芯片H100的售价已经高达4.5万美元(约合人民币32.37万元),这较今年4月份4万美元的价格涨幅超过10%,甚至有卖家标价6.5万美元,而且货源较上半年也显著减少。

同时,英伟达的中国特供版 A800和 H800芯片也遭到了哄抢。有数据推算,2022年全年英伟达数据中心GPU在中国的销售额约为100亿元人民币。而今年春节后,据晚点 LatePost报道,拥有云计算业务的中国各互联网大公司都向英伟达下了大单。字节今年向英伟达订购了超过10亿美元的GPU,另一家大公司的订单也至少超过10亿元人民币。而仅字节一家公司今年的订单可能已接近英伟达去年在中国销售的商用GPU总和。

目前,国内大模型企业基本上很难拿得到这些芯片,A800和 H800芯片从原来的12万人民币左右,变成了现在是25万甚至30万,甚至有高达50万一片

值得注意的是,近日有消息称,下一代GPT大模型GPT5需要5万张英伟达最高配置的H100芯片,全球市场对H100芯片的需求量达到43万张,英伟达的产能可能难以满足如此大的算力需求。

正如特斯拉CEO马斯克表示,“英伟达不会永远在大规模训练和推理芯片市场占据垄断地位。”越是风光,竞争对手就越是虎视眈眈,比如就在前不久,AMD刚刚发布了“大模型专用”的AI芯片MI300X,直接对标英伟达H100,这被业界视为直接向英伟达宣战。

但从本次黄仁勋的演讲来看,赛道越来越激烈,英伟达也丝毫没有松懈。





审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 处理器
    +关注

    关注

    68

    文章

    19506

    浏览量

    231694
  • 人工智能
    +关注

    关注

    1799

    文章

    47999

    浏览量

    241732
  • 英伟达
    +关注

    关注

    22

    文章

    3867

    浏览量

    92366
  • 超级芯片
    +关注

    关注

    0

    文章

    36

    浏览量

    8936
  • GPU芯片
    +关注

    关注

    1

    文章

    303

    浏览量

    5952

原文标题:GPU被炒到50万元一颗后,英伟达又推超级芯片!

文章出处:【微信号:WW_CGQJS,微信公众号:传感器技术】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    MediaTek与NVIDIA携手设计GB10 Grace Blackwell超级芯片

    MediaTek与NVIDIA近日宣布了项重要合作,双方将共同设计NVIDIA GB10 Grace Blackwell超级芯片。这款超级
    的头像 发表于 01-13 10:48 231次阅读

    英伟新一代AI芯片过热问题引关注

    近日,英伟新一代Blackwell AI芯片遭遇过热问题,这消息引发了业界的广泛关注。据悉,搭载该
    的头像 发表于 11-19 16:15 365次阅读

    英伟:Hopper芯片需求强劲 英伟发言人谈生产增长

    据外媒报道,英伟发言人透露Hopper芯片需求强劲,而且Blackwell 芯片的广泛采样也已经开启。而对于产量问题;则表示有望在下半年实
    的头像 发表于 08-03 17:25 2755次阅读

    NVIDIA AI Enterprise荣获金奖

    NVIDIA AI Enterprise、GH200 Grace Hopper 超级芯片和 Spectrum-X 在 COMPUTEX 20
    的头像 发表于 05-29 09:27 531次阅读
    NVIDIA AI Enterprise荣获金奖

    亚马逊AWS暂缓采购英伟GH200芯片,期待Blackwell更强

    然而,AWS对此予以澄清,称实际上并未取消任何对英伟的订单。据其代表解释,此次从Grace Hopper芯片转向Blackwell
    的头像 发表于 05-22 15:05 777次阅读

    亚马逊未中断英伟订单,等待Grace Blackwell更强性能

    英国《金融时报》昨日报道称,亚马逊AWS已暂停订购英伟最新款“超级芯片Grace Hopper
    的头像 发表于 05-22 11:00 557次阅读

    SiPearl更新Rhea1处理器规格,聚焦HPC与AI推理应用

    据了解,Rhea1处理器将与英伟GH200 Grace Hopper超级
    的头像 发表于 05-15 11:41 479次阅读

    NVIDIA Grace Hopper点亮AI超级计算新时代

    瑞士 Alps、法国 EXA1-HE 等超级计算机将使用高能效的、基于 Grace 的系统为气候和天气、科学探索等领域提供 200 EFLOPS AI 算力,以支持突破性研究。
    的头像 发表于 05-15 09:46 460次阅读

    步解读英伟 Blackwell 架构、NVlink及GB200 超级芯片

    2024年3月19日,[英伟]CEO[黄仁勋]在GTC大会上公布了新一代AI芯片架构BLACKWELL,并推出基于该架构的超级
    发表于 05-13 17:16

    美国首个Grace Hopper架构超算Venado落地:10 exaFLOPS

    超级计算机是由惠普企业集团(Hewlett Packard Enterprise)打造,其运算能力高达 10 exaFLOPS,它是美国第款采用英伟
    的头像 发表于 04-18 14:37 522次阅读

    NVIDIA推出搭载GB200 Grace Blackwell超级芯片的NVIDIA DGX SuperPOD™

    NVIDIA 于太平洋时间 3 月 18 日发布新一代 AI 超级计算机 —— 搭载 NVIDIA GB200 Grace Blackwell 超级
    的头像 发表于 03-21 09:49 860次阅读

    新思科技携手英伟:基于加速计算、生成式AI和Omniverse释放下一代EDA潜能

    将双方数十年的合作深入扩展到新思科技EDA全套技术栈 摘要: 新思科技携手英伟,将其领先的AI驱动型电子设计自动化(EDA)全套技术栈部署于英伟
    发表于 03-20 13:43 356次阅读
    新思科技携手<b class='flag-5'>英伟</b><b class='flag-5'>达</b>:基于加速计算、生成式AI和Omniverse释放下<b class='flag-5'>一代</b>EDA潜能

    英伟发布新一代AI芯片B200

    在美国加州圣何塞举办的英伟GTC生态大会上,英伟CEO黄仁勋以一场震撼人心的演讲,正式推出了公司的
    的头像 发表于 03-20 10:07 1117次阅读

    郭明錤解析:英伟对GB200期待高,但出货不乐观,供应商恐受影响

    作为英伟的AI芯片巨头,郭明錤认为Grace架构应用实例的增加将助推英伟在AI领域的领先地位
    的头像 发表于 03-15 15:20 1337次阅读

    英伟计划拉大GB200与B100/B200规格差异,以刺激用户购买GB200

    早些时候,IT之家用张路线图展示了英伟计划在2024年推出Hopper GH200 GPU,其后将依次推出基于Blackwell的GB
    的头像 发表于 03-14 16:36 2975次阅读