0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

英伟达GTC:ChatGPT专用Hopper GPU H100 NVL来了

汽车电子技术 2023-03-23 16:55 次阅读

英伟达GTC:ChatGPT专用Hopper GPU H100 NVL来了

ChatGPT 一经推出火爆程度让人咋舌,似乎一夜之间就将生成式 AI、大语言模型推到了风口浪尖。英伟达估计也要笑出声来,黄仁勋预计英伟达2023年的生成式人工智能的收入将相当大,人工智能及其基础设施即服务(infrastructure as-a-service)产品将拓展其商业模式。

要之前此前NVIDIA就已经入局,在2016年,NVIDIA就向OpenAI交付了第一台NVIDIA DGX AI超级计算机——支持 ChatGPT 的大型语言模型突破背后的引擎。现在GPT-4需要的算力更大,对速度需求更强烈。

pYYBAGQcE4GAQyMNAACgMjzuUMg307.png

pYYBAGQcE_CAW9TFAACS-dy454s037.png

poYBAGQcE_mANycgAABAXwRfsCo567.png

现在英伟达面向人工智能及其基础设施强发力,GPU提速,ChatGPT专用Hopper GPU H100 NVL性能强大,ChatGPT专用GPU可提速10倍,H100 NVL是专门为LLM设计的GPU,采用了Transformer加速解决方案,可用于处理ChatGPT。相比于英伟达HGX A100,一台搭载四对H100和双NVLINK的标准服务器速度能快10倍,可以将大语言模型的处理成本降低一个数量级。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4729

    浏览量

    128890
  • AI
    AI
    +关注

    关注

    87

    文章

    30728

    浏览量

    268886
  • 英伟达
    +关注

    关注

    22

    文章

    3770

    浏览量

    90986
  • gtc
    gtc
    +关注

    关注

    0

    文章

    73

    浏览量

    4425
  • ChatGPT
    +关注

    关注

    29

    文章

    1558

    浏览量

    7595
  • H100
    +关注

    关注

    0

    文章

    31

    浏览量

    287
收藏 人收藏

    评论

    相关推荐

    软银升级人工智能计算平台,安装4000颗英伟Hopper GPU

    软银公司宣布,其正在扩展的日本顶级人工智能计算平台已安装了约4000颗英伟Hopper GPU。这一举措显著提升了平台的计算能力。据悉,该平台自2023年9月开始运行,最初配备了大约
    的头像 发表于 11-04 16:18 429次阅读

    英伟H100芯片市场降温

    随着英伟新一代AI芯片GB200需求的不断攀升,其上一代明星产品H100芯片却遭遇了市场的冷落。据业内人士透露,搭载H100的服务器通常以8卡的形式进行出售或出租,而在去年,这类服务
    的头像 发表于 10-28 15:42 504次阅读

    揭秘智算中心的互联技术决策

    英伟设计的DGX H100 NVL256超级计算集群,原本计划集成256个NVIDIA H100 GP
    的头像 发表于 10-22 16:17 337次阅读
    揭秘智算中心的互联技术决策

    亚马逊云科技宣布Amazon EC2 P5e实例正式可用 由英伟H200 GPU提供支持

    现已正式可用。亚马逊云科技是首个将英伟H200 GPU用于生产环境的领先云提供商。与基于英伟
    的头像 发表于 09-19 16:16 469次阅读

    英伟或取消B100转用B200A代替

    今年3月份,英伟在美国加利福尼亚州圣何塞会议中心召开的GTC 2024大会上推出了Blackwell架构GPU。原定于今年底出货的B100
    的头像 发表于 08-08 17:19 509次阅读

    进一步解读英伟 Blackwell 架构、NVlink及GB200 超级芯片

    架构在高性能计算方面的应用有哪些? **1. **人工智能训练和推理 Blackwell 架构的 GPU 核心在训练性能上相较前代 Hopper H100 GPU 提升了四倍,推理性能
    发表于 05-13 17:16

    英伟预计2026年营收将超1300亿美元,AI领域仍居主导地位

    该分析师特别指出,英伟已在AI GPU市场拥有绝对优势,现阶段主流产品H100 AI GPU表现强劲,预计明后年还将推出
    的头像 发表于 03-14 14:36 539次阅读

    英伟H200带宽狂飙

    英伟H200带宽的显著提升主要得益于其强大的硬件配置和先进的技术创新。H200配备了高达141GB的HBM3e显存,与前代产品H100相比
    的头像 发表于 03-07 16:44 934次阅读

    英伟H200和A100的差异

    英伟H200和A100在多个方面存在差异。
    的头像 发表于 03-07 16:18 2531次阅读

    英伟H200显卡价格

    英伟H200显卡的具体价格尚未公布。根据上一代H100显卡的价格范围,预计H200的单片价格将超过40000美元。由于新芯片通常定价较高,
    的头像 发表于 03-07 16:09 4811次阅读

    英伟H200和H100的比较

    英伟H200和H100是两款不同的AI芯片,它们各自具有独特的特点和优势。以下是关于这两款芯片的一些比较。
    的头像 发表于 03-07 15:53 4591次阅读

    戴尔发布英伟B200 AI GPU:高功耗1000W,创新性冷却工程设计必要

    市场传言,这款B200虽然运算性能更强,却又面临着惊人的能耗,最高或可至1000W,同比H100增长超过40%。由于搭载Hopper架构及HBM3e高带宽内存,英伟B200被行业视为
    的头像 发表于 03-05 09:30 1932次阅读

    英伟缩短AI GPU交付周期,持续推进算力产业链发展

    与此同时,随着人工智能的迅猛发展及其广泛应用,对像H100和A100这类专为数据中心设计的高性能GPU的需求也大幅增长。而包括Yotta在内的多家公司因此纷纷加大向英伟
    的头像 发表于 02-18 09:36 512次阅读

    英伟Grace-Hopper提供一个紧密集成的CPU + GPU解决方案

    英伟Grace-Hopper提供了一个紧密集成的CPU + GPU解决方案,针对生成式人工智能逐渐成为主导的市场环境。
    的头像 发表于 01-02 15:52 912次阅读

    AI计算需求激增,英伟H100功耗成挑战

    根据预测,若H100的年利用率保持在61%,那么单台设备每年将耗电3740千瓦小时左右。如果英伟在2023年售出150万块H100,2024年再增加至200万块,那么到2024年底,
    的头像 发表于 12-28 09:29 2404次阅读