世界顶级服务器制造商和云服务提供商即将推出 HGX H200 系统与云实例。
11月13日,NVIDIA 宣布推出 NVIDIA HGX H200,为 Hopper 这一全球领先的 AI 计算平台再添新动力。
NVIDIA H200 是首款采用 HBM3e 的 GPU,其运行更快、更大的显存容量将进一步加速生成式 AI 与大语言模型,同时推进用于 HPC 工作负载的科学计算。凭借 HBM3e,NVIDIA H200 能够提供传输速度达 4.8 TB /秒的 141GB 显存。与上一代架构的 NVIDIA A100 相比,其容量几乎翻了一倍,带宽也增加了 2.4 倍。
全球领先的服务器制造商和云服务提供商预计于 2024 年第二季度开始提供搭载 H200 的系统。
NVIDIA 超大规模和高性能计算副总裁 Ian Buck 表示:“想要通过生成式 AI 和 HPC 应用创造智能,就必须使用大型、快速的 GPU 显存来高速、高效地处理海量数据。借助 NVIDIA H200,业界领先的端到端 AI 超级计算平台的速度将会变得更快,一些世界上最重要的挑战,都可以被解决。”
持续创新,持续的性能飞跃
与前代架构相比,NVIDIA Hopper架构实现了前所未有的性能跃升,而 H100 持续的软件升级,包括最近发布的 NVIDIA TensorRT-LLM 等强大的开源库,都在不断提升其性能标准。
H200 的推出将带来进一步的性能飞跃,比如在一个 700 亿参数的 LLM —— Llama 2 上的推理速度比 H100 提高了近一倍。随着未来软件的持续升级,H200 有望实现更大的性能优势与提升。
NVIDIA H200 的规格
NVIDIA H200 将提供四路和八路 NVIDIA HGX H200 服务器主板可选,其与 HGX H100 系统的硬件和软件都兼容。同时还可用于今年 8 月发布的采用 HBM3e 的 NVIDIA GH200 Grace Hopper 超级芯片。这些配置使 H200 可以部署在各类数据中心,包括本地、云、混合云和边缘。
在 NVIDIA NVLink 和 NVSwitch 高速互连技术的加持下,HGX H200 可为各种应用工作负载提供最高的性能,包括针对 1750 亿参数以上超大模型的 LLM 训练和推理。
八路 HGX H200 可提供超过 32 PetaFLOPS 的 FP8 深度学习计算能力和 1.1TB 的聚合高带宽内存容量,能够为生成式 AI 和 HPC 应用带来强劲性能。
当 H200 与采用超高速 NVLink-C2C 互连技术的 NVIDIA Grace CPU 搭配使用时,就组成了带有 HBM3e 的 GH200 Grace Hopper 超级芯片——专为大型 HPC 和 AI 应用而设计的计算模块。
使用 NVIDIA 全栈式软件加速 AI
NVIDIA 加速计算平台具备强大软件工具支持,能够助力开发者和企业构建并加速从 AI 到 HPC 的生产就绪型应用,包括适用于语音、推荐系统和超大规模推理等工作负载的 NVIDIA AI Enterprise 软件套件。
供应情况
NVIDIA H200 将于 2024 年第二季度开始通过全球系统制造商和云服务提供商提供。
GTC 2024 将于 2024 年 3 月 18 至 21 日在美国加州圣何塞会议中心举行,线上大会也将同期开放。点击“阅读原文”或扫描下方海报二维码,立即注册 GTC 大会。
原文标题:SC23 | NVIDIA 为全球领先的 AI 计算平台 Hopper 再添新动力
文章出处:【微信公众号:NVIDIA英伟达】欢迎添加关注!文章转载请注明出处。
-
英伟达
+关注
关注
22文章
3771浏览量
90991
原文标题:SC23 | NVIDIA 为全球领先的 AI 计算平台 Hopper 再添新动力
文章出处:【微信号:NVIDIA_China,微信公众号:NVIDIA英伟达】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论