0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Nvidia 正在利用迄今为止最强大的芯片 H200 推动人工智能革命

捷易物联 2024-01-17 08:25 次阅读

Nvidia 表示,H200 Tensor Core GPU 具有更大的内存容量和带宽,可加快生成 AI 和 HPC 工作负载的速度。

Nvidia H200 是首款提供 HBM3e 的 GPU,HBM3e 是更快、更大的内存,可加速生成式 AI。

H200 芯片定于 2024 年第二季度发布,Nvidia 表示将与“全球系统制造商和云服务提供商”合作以实现广泛可用性。

JAEALOT

Nvidia

OpenAI推出ChatGPT已经一段时间了 ,全球对AI芯片的需求比以往任何时候都更加难以满足。如今,大多数大型科技公司都将注意力集中在生成式人工智能上。对于制造数量最多、性能最高的图形处理单元 (GPU) 的公司 Nvidia 公司来说,现在的情况从未如此好过。在发布了数十款芯片以满足看似呈指数级增长的人工智能市场之后,这家图形芯片巨头展示了迄今为止最强大的 GPU——H200。

NVIDIA H200 Tensor Core GPU 诞生之际,Nvidia 正在努力捍卫其 在 AI 计算领域的主导地位 ,面对 英特尔AMD以及众多芯片初创公司和 Amazon Web Services 等试图抢占市场份额的云服务提供商。在生成人工智能工作负载驱动的芯片需求激增的情况下,市场份额不断增加。

为了保持在人工智能和高性能计算 (HPC) 硬件领域的领先地位,英伟达上月初公布了加快新 GPU 架构开发的计划。根据为投资者发布的路线图 以及 SemiAnalysis的进一步解释,这个想法是要恢复到一年一次的产品推出节奏 。SemiAnalysis 的报告中写道:“Nvidia 对 AI GPU 进行年度更新的举动非常重要,并且会产生许多影响。”

这一切的开始就是 Nvidia 推出的 H200,它利用 Hopper 架构来加速人工智能应用程序。它是去年发布的H100 GPU的后续产品 ,也是此前 Nvidia 最强大的 AI GPU 芯片。简而言之,H200 现在是 Nvidia 产品组合中最强大的 AI 芯片。

Nvidia 超大规模和 HPC 副总裁 Ian Buck 认为,“借助业界领先的端到端 AI 超级计算平台 Nvidia H200,可以更快地解决世界上一些最重要的挑战。” 一般来说,GPU 在人工智能应用中表现出色,因为它们能够执行大量并行矩阵乘法,这是神经网络运行的关键操作。

它们在构建人工智能模型的训练阶段和随后的“推理”阶段都发挥着至关重要的作用,在“推理”阶段,用户将数据输入到人工智能模型中,并提供相应的结果。Buck 指出:“要通过生成式 AI 和 HPC 应用程序创建智能,必须使用大容量、快速的 GPU 内存高速有效地处理大量数据。”

因此,引入 H200 将带来进一步的性能飞跃,包括与 H100 相比,Llama 2(一个 700 亿参数的 LLM)的推理速度几乎翻倍。据 Nvidia 称,未来的软件更新预计会带来 H200 的额外性能领先优势和改进。

e89b36c2-b4ce-11ee-aa22-92fbcf53809c.png

e8a9464a-b4ce-11ee-aa22-92fbcf53809c.png

虽然 H200 看起来与 H100 基本相似,但其内存的修改有明显的增强。新的 GPU 引入了一种创新且更快的内存规范,称为 HBM3e。这将 GPU 的内存带宽提升至每秒 4.8 TB,比 H100 的每秒 3.35 TB 明显增加。它将总内存容量从前代产品的 80GB 扩展至 141GB。

“Nvidia H200 是首款提供 HBM3e 的 GPU,HBM3e 速度更快、内存更大,可加速生成式 AI 和大型语言模型 (LLM),同时推进 HPC 工作负载的科学计算。凭借 HBM3e,NVIDIA H200 以每秒 4.8 TB 的速度提供 141GB 内存,与前身 NVIDIA A100 相比,容量几乎翻倍,带宽增加 2.4 倍。”该芯片巨头 表示。

结合实际情况来看,OpenAI 经常提到面临 GPU 资源短缺,导致 ChatGPT 性能下降的问题。为了维持任何水平的服务,该公司采取速率限制。理论上,加入H200可以缓解当前运行ChatGPT的AI语言模型的资源限制,使它们能够有效地迎合更广泛的客户群。

Nvidia 还表示,它将提供多种外形规格的 H200。其中包括四路和八路配置的 Nvidia HGX H200 服务器主板,与 HGX H100 系统的硬件和软件兼容。它还将在 Nvidia GH200 Grace Hopper Superchip 中提供,它将 CPU 和 GPU 组合到一个封装中。

e8b86864-b4ce-11ee-aa22-92fbcf53809c.png

“通过这些选项,H200 可以部署在各种类型的数据中心中,包括本地、云、混合云和边缘。NVIDIA 的 全球合作伙伴服务器制造商生态系统 (包括华擎 Rack、华硕、戴尔科技、Eviden、技嘉、惠普企业、英格拉科技、联想、QCT、Supermicro、纬创资通和 Wiwynn)可以使用 H200 更新其现有系统。” 。

据美国芯片巨头亚马逊网络服务(AWS)称,除了CoreWeave、Lambda、和乌尔特尔。目前,英伟达在AI GPU市场处于领先地位。

然而,AWS、谷歌、微软等主要参与者以及 AMD 等传统 AI 和 HPC 实体正在积极准备 其下一代处理器用于训练和推理。为了应对这种竞争格局,Nvidia 加快了基于 B100 和 X100 的产品进度。

e8cf709a-b4ce-11ee-aa22-92fbcf53809c.png

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 芯片
    +关注

    关注

    459

    文章

    51568

    浏览量

    429781
  • NVIDIA
    +关注

    关注

    14

    文章

    5107

    浏览量

    104466
  • 人工智能
    +关注

    关注

    1800

    文章

    48083

    浏览量

    242163
收藏 人收藏

    评论

    相关推荐

    英特尔发布最强大的商用AI PC产品阵容

    在2025年世界移动通信大会(MWC 2025)上,英特尔发布了该公司迄今为止最强大的商用AI PC产品阵容,搭载了英特尔 酷睿 Ultra 200V、200U、
    的头像 发表于 03-08 09:28 267次阅读

    嵌入式和人工智能究竟是什么关系?

    人工智能的结合,无疑是科技发展中的一场革命。在人工智能硬件加速中,嵌入式系统以其独特的优势和重要性,发挥着不可或缺的作用。通过深度学习和神经网络等算法,嵌入式系统能够高效地处理大量数据,从而实现
    发表于 11-14 16:39

    《AI for Science:人工智能驱动科学创新》第6章人AI与能源科学读后感

    探讨了人工智能如何通过技术创新推动能源科学的进步,为未来的可持续发展提供了强大的支持。 首先,书中通过深入浅出的语言,介绍了人工智能在能源领域的基本概念和技术原理。这使得我对
    发表于 10-14 09:27

    AI for Science:人工智能驱动科学创新》第4章-AI与生命科学读后感

    阅读这一章后,我深感人工智能与生命科学的结合正引领着一场前所未有的科学革命,以下是我个人的读后感: 1. 技术革新与生命科学进步 这一章详细阐述了人工智能如何通过其强大的数据处理和分析
    发表于 10-14 09:21

    《AI for Science:人工智能驱动科学创新》第一章人工智能驱动的科学创新学习心得

    ,无疑为读者铺设了一条探索人工智能(AI)如何深刻影响并推动科学创新的道路。在阅读这一章后,我深刻感受到了人工智能技术在科学领域的广泛应用潜力以及其带来的革命性变化,以下是我个人的学习
    发表于 10-14 09:12

    商汤科技加入中国移动人工智能大模型评测联盟

    我国人工智能大模型评测的合作与促进平台,推动人工智能技术的发展和应用,提高国产人工智能产品的质量和竞争力。
    的头像 发表于 07-12 14:20 762次阅读

    英伟达H200芯片将大规模交付

    英伟达AI GPU市场迎来新动态,其H200型号上游芯片端已于第二季度下旬正式进入量产阶段,预示着该产品将在第三季度后迎来大量交付。然而,英伟达Blackwell平台的提前上市,至少领先H200一到两个季度,这一变化对终端客户的
    的头像 发表于 07-04 10:29 883次阅读

    英伟达H200芯片量产在即,引领AI计算新时代

    在科技日新月异的今天,每一次技术的飞跃都预示着行业格局的深刻变革。7月3日,台湾媒体《工商时报》传来重磅消息,英伟达(NVIDIA)的旗舰级AI计算产品——H200,已在二季度末正式迈入量产阶段
    的头像 发表于 07-03 16:22 892次阅读

    德克萨斯大学将创建一个学术界最强大的生成性人工智能研究中心

    近日,美国德克萨斯大学宣称他们将创建一个学术界最强大的生成性人工智能(AI)研究中心,该中心将配备600个Nvidia H100 GPU用于AI模型的训练,该计算机集群被命名为Vist
    的头像 发表于 05-28 09:06 878次阅读

    进一步解读英伟达 Blackwell 架构、NVlink及GB200 超级芯片

    成本 英伟达最新机架解决方案 GB200 提升了性能,降低了 CPU:GPU 配比,有助于降低客户的总拥有成本(TCO)。 这些应用将有助于推动数据中心的发展,为人工智能、云计算等领域提供更
    发表于 05-13 17:16

    芯片巨头高层来台,人工智能引领全球新产业革命

    根据外贸协会的介绍,此次COMPUTEX吸引了来自26个国家的1500多家厂商参展,预计将有超过5万名观众到场,成为全球科技界的盛事。其中,人工智能(AI)芯片领导者英伟达(NVIDIA)首席执行官黄仁勋将在6月2日发表主题演讲
    的头像 发表于 05-13 09:59 452次阅读

    OpenAI联手Nvidia发布首台Nvidia DGX H200

    OpenAI总裁兼联合创始人Greg Brockman分享了他与山姆・阿尔特曼(Sam Altman)、黄仁勋以及自己的合影,他们的眼前正是这台首次亮相的DGX H200
    的头像 发表于 04-25 13:50 548次阅读

    英伟达H200性能显著提升,年内将推出B200新一代AI半导体

    同一天,NVIDIA发布了H200的性能评估报告,表明在与美国Meta公司的大型语言模型——LLM“Llama 2”的对比中,H200使AI导出答案的处理速度最高提升了45%。
    的头像 发表于 04-01 09:36 1569次阅读

    东莞与百度签署战略合作协议,推动人工智能的全场景应用落地

    3月22日,东莞市人民政府与百度签署战略合作协议,双方将紧密围绕人工智能产业发展,充分发挥百度在 AI 算法、云计算、大数据、自动驾驶技术等方面的优势,推动人工智能的全场景应用落地。
    的头像 发表于 03-25 10:05 930次阅读

    英伟达发布最强AI加速卡GB200,开启新一代AI图形处理时代

    英伟达正式发布了其最新、也是迄今为止最强大的AI加速卡——GB200。这一重大发布标志着英伟达在AI图形处理领域迈入了一个新的里程碑。
    的头像 发表于 03-19 11:26 1433次阅读
    英伟达发布<b class='flag-5'>最强</b>AI加速卡GB<b class='flag-5'>200</b>,开启新一代AI图形处理时代