0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Nvidia 正在利用迄今为止最强大的芯片 H200 推动人工智能革命

捷易物联 2024-01-17 08:25 次阅读

Nvidia 表示,H200 Tensor Core GPU 具有更大的内存容量和带宽,可加快生成 AI 和 HPC 工作负载的速度。

Nvidia H200 是首款提供 HBM3e 的 GPU,HBM3e 是更快、更大的内存,可加速生成式 AI。

H200 芯片定于 2024 年第二季度发布,Nvidia 表示将与“全球系统制造商和云服务提供商”合作以实现广泛可用性。

JAEALOT

Nvidia

OpenAI推出ChatGPT已经一段时间了 ,全球对AI芯片的需求比以往任何时候都更加难以满足。如今,大多数大型科技公司都将注意力集中在生成式人工智能上。对于制造数量最多、性能最高的图形处理单元 (GPU) 的公司 Nvidia 公司来说,现在的情况从未如此好过。在发布了数十款芯片以满足看似呈指数级增长的人工智能市场之后,这家图形芯片巨头展示了迄今为止最强大的 GPU——H200。

NVIDIA H200 Tensor Core GPU 诞生之际,Nvidia 正在努力捍卫其 在 AI 计算领域的主导地位 ,面对 英特尔AMD以及众多芯片初创公司和 Amazon Web Services 等试图抢占市场份额的云服务提供商。在生成人工智能工作负载驱动的芯片需求激增的情况下,市场份额不断增加。

为了保持在人工智能和高性能计算 (HPC) 硬件领域的领先地位,英伟达上月初公布了加快新 GPU 架构开发的计划。根据为投资者发布的路线图 以及 SemiAnalysis的进一步解释,这个想法是要恢复到一年一次的产品推出节奏 。SemiAnalysis 的报告中写道:“Nvidia 对 AI GPU 进行年度更新的举动非常重要,并且会产生许多影响。”

这一切的开始就是 Nvidia 推出的 H200,它利用 Hopper 架构来加速人工智能应用程序。它是去年发布的H100 GPU的后续产品 ,也是此前 Nvidia 最强大的 AI GPU 芯片。简而言之,H200 现在是 Nvidia 产品组合中最强大的 AI 芯片。

Nvidia 超大规模和 HPC 副总裁 Ian Buck 认为,“借助业界领先的端到端 AI 超级计算平台 Nvidia H200,可以更快地解决世界上一些最重要的挑战。” 一般来说,GPU 在人工智能应用中表现出色,因为它们能够执行大量并行矩阵乘法,这是神经网络运行的关键操作。

它们在构建人工智能模型的训练阶段和随后的“推理”阶段都发挥着至关重要的作用,在“推理”阶段,用户将数据输入到人工智能模型中,并提供相应的结果。Buck 指出:“要通过生成式 AI 和 HPC 应用程序创建智能,必须使用大容量、快速的 GPU 内存高速有效地处理大量数据。”

因此,引入 H200 将带来进一步的性能飞跃,包括与 H100 相比,Llama 2(一个 700 亿参数的 LLM)的推理速度几乎翻倍。据 Nvidia 称,未来的软件更新预计会带来 H200 的额外性能领先优势和改进。

e89b36c2-b4ce-11ee-aa22-92fbcf53809c.png

e8a9464a-b4ce-11ee-aa22-92fbcf53809c.png

虽然 H200 看起来与 H100 基本相似,但其内存的修改有明显的增强。新的 GPU 引入了一种创新且更快的内存规范,称为 HBM3e。这将 GPU 的内存带宽提升至每秒 4.8 TB,比 H100 的每秒 3.35 TB 明显增加。它将总内存容量从前代产品的 80GB 扩展至 141GB。

“Nvidia H200 是首款提供 HBM3e 的 GPU,HBM3e 速度更快、内存更大,可加速生成式 AI 和大型语言模型 (LLM),同时推进 HPC 工作负载的科学计算。凭借 HBM3e,NVIDIA H200 以每秒 4.8 TB 的速度提供 141GB 内存,与前身 NVIDIA A100 相比,容量几乎翻倍,带宽增加 2.4 倍。”该芯片巨头 表示。

结合实际情况来看,OpenAI 经常提到面临 GPU 资源短缺,导致 ChatGPT 性能下降的问题。为了维持任何水平的服务,该公司采取速率限制。理论上,加入H200可以缓解当前运行ChatGPT的AI语言模型的资源限制,使它们能够有效地迎合更广泛的客户群。

Nvidia 还表示,它将提供多种外形规格的 H200。其中包括四路和八路配置的 Nvidia HGX H200 服务器主板,与 HGX H100 系统的硬件和软件兼容。它还将在 Nvidia GH200 Grace Hopper Superchip 中提供,它将 CPU 和 GPU 组合到一个封装中。

e8b86864-b4ce-11ee-aa22-92fbcf53809c.png

“通过这些选项,H200 可以部署在各种类型的数据中心中,包括本地、云、混合云和边缘。NVIDIA 的 全球合作伙伴服务器制造商生态系统 (包括华擎 Rack、华硕、戴尔科技、Eviden、技嘉、惠普企业、英格拉科技、联想、QCT、Supermicro、纬创资通和 Wiwynn)可以使用 H200 更新其现有系统。” 。

据美国芯片巨头亚马逊网络服务(AWS)称,除了CoreWeave、Lambda、和乌尔特尔。目前,英伟达在AI GPU市场处于领先地位。

然而,AWS、谷歌、微软等主要参与者以及 AMD 等传统 AI 和 HPC 实体正在积极准备 其下一代处理器用于训练和推理。为了应对这种竞争格局,Nvidia 加快了基于 B100 和 X100 的产品进度。

e8cf709a-b4ce-11ee-aa22-92fbcf53809c.png

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 芯片
    +关注

    关注

    452

    文章

    50150

    浏览量

    420519
  • NVIDIA
    +关注

    关注

    14

    文章

    4843

    浏览量

    102697
  • 人工智能
    +关注

    关注

    1789

    文章

    46576

    浏览量

    236902
收藏 人收藏

    评论

    相关推荐

    《AI for Science:人工智能驱动科学创新》第6章人AI与能源科学读后感

    探讨了人工智能如何通过技术创新推动能源科学的进步,为未来的可持续发展提供了强大的支持。 首先,书中通过深入浅出的语言,介绍了人工智能在能源领域的基本概念和技术原理。这使得我对
    发表于 10-14 09:27

    OpenAI联手Nvidia发布首台Nvidia DGX H200

    OpenAI总裁兼联合创始人Greg Brockman分享了他与山姆・阿尔特曼(Sam Altman)、黄仁勋以及自己的合影,他们的眼前正是这台首次亮相的DGX H200
    的头像 发表于 04-25 13:50 379次阅读

    英伟达H200上市时间

    英伟达H200于2023年11月13日正式发布。然而,由于HBM3e芯片供应问题,其实际开售时间有所延迟。英伟达表示,H200产品预计将在2024年第二季度正式开售。因此,虽然H200
    的头像 发表于 03-07 16:46 2074次阅读

    英伟达H200带宽狂飙

    英伟达H200带宽的显著提升主要得益于其强大的硬件配置和先进的技术创新。H200配备了高达141GB的HBM3e显存,与前代产品H100相比,内存容量提升了76%。更重要的是,
    的头像 发表于 03-07 16:44 848次阅读

    英伟达H200算力怎么样

    英伟达H200的算力非常强大。作为新一代AI芯片H200在性能上有了显著的提升,能够处理复杂的AI任务和大数据分析。然而,具体的算力数值可能因芯片
    的头像 发表于 03-07 16:15 1895次阅读

    英伟达H200能作为普通显卡使用吗

    英伟达H200不能作为普通显卡使用。H200是一款专为AI计算设计的芯片,它并不具备普通显卡的图形渲染能力。H200的主要用途是处理生成式人工智能
    的头像 发表于 03-07 16:13 1326次阅读

    英伟达H200显卡价格

    英伟达H200显卡的具体价格尚未公布。根据上一代H100显卡的价格范围,预计H200的单片价格将超过40000美元。由于新芯片通常定价较高,因此可以推断
    的头像 发表于 03-07 16:09 3672次阅读

    英伟达H200参数说明

    英伟达H200是一款新一代AI芯片,于2023年11月14日正式发布,主要被设计用来处理生成式人工智能负载的海量数据。
    的头像 发表于 03-07 15:48 1545次阅读

    Stability AI推出迄今为止更小、更高效的1.6B语言模型

    Stability AI 宣布推出迄今为止最强大的小语言模型之一 Stable LM 2 1.6B。
    的头像 发表于 01-23 10:11 720次阅读
    Stability AI推出<b class='flag-5'>迄今为止</b>更小、更高效的1.6B语言模型

    英伟达最强AI芯片H200性能如何?

    英伟达进一步指出,内存带宽对于 HPC 应用程序至关重要,因为它可以实现更快的数据传输,减少复杂的处理瓶颈。对于模拟、科学研究和人工智能等内存密集型 HPC 应用,H200 更高的内存带宽可确保高效地访问和操作数据,与 CPU 相比,获得结果的时间最多可加快 110 倍。
    发表于 11-22 16:40 870次阅读
    英伟达<b class='flag-5'>最强</b>AI<b class='flag-5'>芯片</b><b class='flag-5'>H200</b>性能如何?

    英伟达重磅发布H200,容量翻倍,带宽狂飙

    HGX H200NVIDIA NVLink 和 NVSwitch 高速互连提供支持,可为各种应用工作负载提供最高性能,包括针对超过 1750 亿个参数的最大模型的 LLM 训练和推理。英伟达
    的头像 发表于 11-15 16:09 932次阅读
    英伟达重磅发布<b class='flag-5'>H200</b>,容量翻倍,带宽狂飙

    英伟达推出用于人工智能工作的顶级芯片HGX H200

    近日,英伟达推出了一款用于人工智能工作的顶级芯片HGX H200。新的GPU升级了需求巨大的H100,内存带宽增加了1.4倍,内存容量增加了1.8倍,提高了其处理密集生成
    的头像 发表于 11-15 14:34 1417次阅读

    英伟达新一代人工智能(AI)芯片HGX H200

    基于英伟达的“Hopper”架构的H200也是该公司第一款使用HBM3e内存的芯片,这种内存速度更快,容量更大,因此更适合大语言模型。英伟达称:借助HBM3e,H200以每秒4.8TB的速度提供141GB的内存,与A100相比,
    发表于 11-15 11:17 755次阅读

    英伟达推出新款AI芯片H200 性能飙升90%但是估计依然被出口管制

    生成式AI火爆全球之后,英伟达的AI芯片一张难求,就在英伟达重量级选手H100 AI芯片目前依然是一货难求的情况下,英伟达推出新款AI芯片H200
    的头像 发表于 11-14 16:45 1450次阅读
    英伟达推出新款AI<b class='flag-5'>芯片</b><b class='flag-5'>H200</b> 性能飙升90%但是估计依然被出口管制

    世界最强AI芯H200发布,英伟达:性能提升90%

    在备受关注的人工智能领域,英伟达表示,h200将进一步提高性能。llama 2(700亿个llm)的推理速度是h100的两倍。未来的软件更新有望为h200带来更多的性能和改进。
    的头像 发表于 11-14 10:49 1092次阅读