0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Nvidia的H100:有趣的L2缓存和大量带宽

Linelayout 来源:半导体行业观察 2023-07-06 10:36 次阅读

GPU 最初是纯粹用于图形渲染的设备,但其高度并行的特性也使其对某些计算任务具有吸引力。随着过去几十年 GPU 计算场景的发展,Nvidia 进行了大量投资来占领计算市场。其中一部分涉及认识到计算任务与图形任务有不同的需求,并分散其 GPU 系列以更好地瞄准每个市场。

H100 是 Nvidia 面向计算的 GPU 系列的最新成员。它采用Hopper架构,并建立在一个巨大的814 mm2芯片上,使用台积电的4N工艺和800亿个晶体管。这个巨大的芯片实现了 144 个流式多处理器 (SM)、60 MB 的 L2 缓存和 12 个 512 位 HBM 内存控制器。我们正在 Lambda Cloud 上测试 H100 的 PCIe 版本,该版本支持 114 个 SM、50 MB 的 L2 缓存和 10 个 HBM2 内存控制器。该卡最多可消耗 350 W 的功率。

Nvidia 还提供了 SXM 外形 H100,其功耗高达 700W,并启用了 132 个 SM。SXM H100 还使用 HBM3 内存,提供额外的带宽来满足这些额外的着色器的需要。

3b8bef12-1b22-11ee-962d-dac502259ad0.png

关于时钟速度的简要说明

H100 具有比 A100 高得多的升压时钟。在进行微基准测试时,H100 有时会降至 1395 MHz,或者略低于其最大升压时钟的 80%。nvidia-smi 的其他指标表明我们可能会达到功率限制,特别是在从 L2 提取数据时。H100 PCIe 版本的功率限制为 350W,在带宽测试时正好符合这一要求。

3ba2f004-1b22-11ee-962d-dac502259ad0.png

即使 GPU 功耗超过 300W,服务器冷却也能够使 H100 保持在非常低的温度。内存温度稍高一些,但仍在合理范围内。

A100 看到了不同的行为。核心时钟在负载下达到 1410 MHz 并保持不变。功耗也相当高,但 A100 的 SXM4 版本具有更高的 400W 功率限制。可能正因为如此,即使功耗超过 350W,我们也没有看到任何时钟速度下降。

3bcd407a-1b22-11ee-962d-dac502259ad0.png

与 H100 一样,A100 的核心温度非常低。被动冷却卡似乎在气流充足的服务器机箱中蓬勃发展。A100的内存温度也比H100低。

缓存和内存设置

计算机几乎一直受到内存速度的限制。我们已经看到消费类 GPU 通过日益复杂的缓存设置来应对这一问题。AMD 的 RX 6900 XT 使用四级缓存层次结构,末级缓存容量为 128 MB,而 Nvidia 的 RTX 4090 将二级容量扩展至 72 MB。Nvidia 的计算 GPU 的缓存容量也有所增加,但策略略有不同。

流式多处理器 (SM) 是 Nvidia 的基本 GPU 构建块。Nvidia 在之前面向数据中心的 GPU 中一直强调 SM 私有缓存。对于大多数 Nvidia 架构,SM 具有私有内存块,可以在 L1 缓存和共享内存(软件管理暂存器)使用之间灵活分区。GK210 Kepler SM 具有 128 KB 的内存,而客户端实现的内存为 64 KB。A100 为 192 KB,而客户端 Ampere 为 128 KB。现在,H100 将 L1/共享内存容量提高到 256 KB。

我们可以使用 Nvidia 的专有 API 对 L1 缓存分配进行有限的测试。我们通常使用 OpenCL 或 Vulkan 进行测试,因为许多供应商支持这些 API,让测试无需修改即可在各种 GPU 上运行。但 CUDA 对 L1 和共享内存分割的控制有限。具体来说,我们可以要求 GPU 偏好 L1 缓存容量、偏好均等分割或偏好共享内存容量。请求更大的 L1 缓存分配不会带来任何延迟损失。

3be3bff8-1b22-11ee-962d-dac502259ad0.png

使用 CUDA 测试内存访问延迟,这让我们可以指定首选的 L1/共享内存分割。

当我们要求 CUDA 优先选择 L1 缓存容量时,我们看到 208 KB 的 L1 缓存。通过这种设置,H100 比任何其他 GPU 拥有更多的一级数据缓存能力。即使我们考虑到 AMD 使用单独内存进行缓存和暂存器的策略,H100 仍然领先。将 RDNA 3 的 L0 矢量缓存、标量缓存和 LDS(暂存器)容量加起来仅提供 208 KB 的存储空间,而 Hopper 上的存储空间为 256 KB。

相对于A100,H100的L1容量更高,延迟更低。这是一个值得欢迎的改进,并且在缓存层次结构中继续保持比 A100 稍好的趋势。

3bf8f54e-1b22-11ee-962d-dac502259ad0.png

对于 L1 无法容纳的数据,H100 有 50 MB L2。当 A100 于 2020 年推出时,其 40 MB L2 为其提供了比当时任何 Nvidia GPU 更高的末级缓存容量。H100稍微增加了缓存容量,但今天没什么特别的。Nvidia 的 RTX 4090 具有 72 MB 的二级缓存,而 AMD 的高端 RDNA 2 和 RDNA 3 GPU 分别具有 128 MB 和 96 MB 的末级缓存。

3c06e8d4-1b22-11ee-962d-dac502259ad0.jpg

Nvidia 白皮书中的 H100 框图,显示了两个 L2 分区以及它们之间的链接

H100还继承了A100的分离式L2配置。GPU 上运行的任何线程都可以访问全部 50 MB 缓存,但速度不同。访问“远”分区所需的时间几乎是原来的两倍。它的延迟大约与 RX 6900 XT 上的 VRAM 一样长,这使得它对带宽更有用,而不是让单个扭曲或波前更快完成。

3c20198a-1b22-11ee-962d-dac502259ad0.png

使用 OpenCL 与 AMD 的客户端 RDNA 2 架构进行比较

H100 的二级缓存感觉像是两级设置,而不是单级缓存。在 H100 上运行的线程可以比在 A100 上更快地访问“远”L2 缓存,因此 Nvidia 与上一代相比有所改进。在实现大型缓存方面,A100 是 Nvidia 的先驱,而 H100 的设置是 A100 的自然演变。但这并不是现代客户端 GPU 上使用的低延迟、高效的缓存设置。

在 VRAM 中,H100 的延迟比 A100 略低,与一些较旧的客户端 GPU 相当。例如,GTX 980 Ti 的 VRAM 延迟约为 354 ns。

不再有常量缓存?

Nvidia 长期以来一直使用单独的常量缓存层次结构,通常具有 2 KB 常量缓存,并由 32 至 64 KB 中级常量缓存支持。常量缓存提供非常低的延迟访问,但它是只读的并且由有限的内存空间支持。H100 以不同的方式处理常量内存。Nvidia 可以分配最多 64 KB 的恒定内存(这一限制可以追溯到 Tesla 架构),并且延迟在整个范围内是恒定的。

3c48c77c-1b22-11ee-962d-dac502259ad0.png

此外,延迟看起来与 L1 缓存延迟几乎相同。H100 可能使用 L1 数据缓存来保存常量数据。验证这个假设需要额外的测试,由于现实生活和日常工作的需求,我目前无法投入时间。但无论 Nvidia 做了什么,它都比 A100 的持续缓存有了明显的改进,并且全面降低了延迟。如果 Ada Lovelace 可以处理来自小型且快速的 2 KB 常量缓存的请求,那么它可以享受较低的延迟,但如果有大量常量数据,它也会落后。

本地内存延迟

如前所述,H100 的 SM 具有大块私有存储,可以在 L1 缓存和共享内存使用之间分配。共享内存是 Nvidia 的术语,指的是软件管理的暂存器,可提供始终如一的高性能。AMD 的等效项称为本地数据共享 (LDS)。在 Intel GPU 上,它称为共享本地内存 (SLM)。OpenCL 将此内存类型称为本地内存。

3c5829ba-1b22-11ee-962d-dac502259ad0.png

尽管 H100 从同一存储块中分配共享内存,但共享内存比 L1 缓存访问更快,因为它不需要标记比较和状态检查来确保命中。与各种 GPU 相比,H100 表现出色,尽管它可以比任何其他当前 GPU 分配更多的共享内存容量。

Atomics

共享内存(或本地内存)对于同步同一工作组内的线程也很有用。在这里,我们正在测试 OpenCL 的atomic_cmpxchg 函数,该函数会进行比较和交换操作,并保证在这些操作之间没有其他东西会触及其所使用的内存。

3c6f2098-1b22-11ee-962d-dac502259ad0.png

H100 在这种原子(Atomics)操作方面做得相当好,尽管它有点落后于消费级 GPU 的能力。令人惊讶的是,这也适用于以较低时钟运行的旧 GPU,例如 GTX 980 Ti。不过,H100 确实比 A100 做得更好。

如果我们在全局内存(即由 VRAM 支持的内存)上执行相同的操作,延迟会严重得多。它略高于 L2 延迟,因此 H100 可能正在 L2 缓存处处理跨 SM 同步。

3c8ae878-1b22-11ee-962d-dac502259ad0.png

同样,H100 比 A100 略有改进,但与消费级 GPU 相比有所不足。但这一次,差距要大得多。RX 6900 XT 将 H100 和 A100 远远抛在了后面。旧版 GTX 980 Ti 的性能也好很多。我认为在巨大的 814 mm2或 826 mm2芯片上同步事物是相当具有挑战性的。

分布式共享内存

为了降低跨巨大芯片传输数据的成本,H100 具有一项称为分布式共享内存 (DSMEM) 的功能。使用此功能,应用程序可以将数据保存在 GPC 或 SM 集群中。与上述全局原子相比,这应该允许更低的延迟数据共享,同时能够在比工作组中容纳的更多线程之间共享数据。

测试此功能需要每小时支付 2 美元购买 H100 实例,同时学习新的 API,然后在没有其他 GPU 的情况下进行测试,以对结果进行健全性检查。即使在有利的条件下,编写、调试和验证测试通常也需要许多小时。Nvidia 声称 DSMEM通常比通过全局内存交换数据快 7 倍。

带宽

延迟只是问题的一部分。H100 等 GPU 专为极其并行的计算工作负载而设计,并且可能不必处理可用并行性较低的情况。这与消费类 GPU 形成鲜明对比,消费类 GPU 偶尔会面临较少的并行任务,例如几何处理或小型绘制调用。所以,H100强调的是海量带宽。从 L2 缓存开始,我们看到超过 5.5 TB/s 的读取带宽。我们测量了 RX 7900 XTX L2 的读取带宽约为 5.7 TB/s,因此 H100 获得了几乎相同的带宽量和更高的缓存容量。

3c99a3ea-1b22-11ee-962d-dac502259ad0.png

使用 OpenCL 进行测试

与 A100 相比,H100 的带宽提升虽小但很明显。但这仅适用于“近”L2 分区。如前所述,A100 和 H100 的 L2 并不是真正的单级缓存。如果我们超过“接近”L2 容量,带宽会明显变差。在访问整个 50 MB L2 时,H100 与 A100 相比也有所退步,为 3.8 TB/s,而 A100 为 4.5 TB/s。Nvidia 可能已经确定很少有工作负载在 A100 上受 L2 带宽限制,因此放弃一点跨分区 L2 带宽并不是什么大问题。

3cbc1dc6-1b22-11ee-962d-dac502259ad0.png

从绝对意义上讲,即使请求必须穿过缓存分区,H100 的 50 MB L2 仍然可以提供大量带宽。相比之下,RDNA 2 的无限缓存可提供约 2 TB/s 的带宽,而 RDNA 3 的无限缓存仅略低于 3 TB/s。因此,H100 提供的缓存容量比 AMD 高端客户端 GPU 上的无限缓存要少一些,但通过更高的带宽来弥补。

然而,我觉得 Nvidia 可以将一些客户端工程引入到面向计算的 GPU 中。他们的 RTX 4090 提供约 5 TB/s 的 L2 带宽,并具有更多的 L2 缓存容量。从好的方面来说,H100 的 L2 提供比 VRAM 高得多的带宽,即使请求必须跨分区也是如此。这是一种恭维,因为 H100 拥有大量的 VRAM 带宽。

3ce11fea-1b22-11ee-962d-dac502259ad0.png

凭借五个 HBM2e 堆栈,H100 可以从 VRAM 中提取略低于 2 TB/s 的速度。因此,H100 的 VRAM 带宽实际上非常接近 RDNA 2 的 Infinity Cache 带宽。它还代表了相对于 A100 的显着改进。A100 使用 HBM2,并且仍然比任何消费类 GPU 拥有更多的 VRAM 带宽,但其较低的内存时钟让 H100 领先。

H100 的 VRAM 带宽对于没有缓存友好访问模式的大量工作集非常有用。消费级 GPU 已趋向于良好的缓存,而不是大量的 VRAM 设置。与具有适度 GDDR 设置但具有出色缓存的 GPU 相比,少数使用 HBM 的消费级 GPU 的性能表现平平。这是因为缓存延迟较低,即使工作负载较小,也可以更轻松地保持执行单元的运行。从 Nvidia 和 AMD 构建计算 GPU 的方式来看,计算工作负载似乎恰恰相反。A100 已经针对大型工作负载进行了调整。H100 更进一步,如果您可以填充一半以上的 GPU,则 H100 领先于 A100,但如果您不能填充一半以上,则 H100 会落后一些。

计算吞吐量

A100 的 SM 提供比客户端 Ampere 更高的理论占用率和 FP64 性能,但只有 FP32 吞吐量的一半。H100 通过为每个 SM 子分区 (SMSP) 提供 32 个 FP32 单元来解决这个问题,让它每个时钟执行一个扭曲指令。

3cf1bbe8-1b22-11ee-962d-dac502259ad0.jpg

数据来自A100和H100各自的白皮书

除了 FP32 性能之外,FP64 性能也翻倍。每个 H100 SMSP 可以每两个周期执行一条 FP64 warp 指令,而 A100 每四个周期执行一次。这使得 H100 在需要提高精度的科学应用中比 A100 表现更好。

3d159ea0-1b22-11ee-962d-dac502259ad0.png

A100 上的 INT32 加法吞吐量绝对是一个测量误差。遗憾的是,Nvidia 不支持 OpenCL 的 FP16 扩展,因此无法测试 FP16 吞吐量

同时,H100继承了Nvidia在整数乘法方面的优势。具体来说,与 AMD GPU 上的四分之一速率相比,INT32 乘法以一半速率执行。另一方面,AMD GPU 可以以双倍速率执行 16 位整数运算,而 Nvidia GPU 则不能。

在GPU层面,H100的特点是SM数量小幅增加,时钟速度大幅提高。其结果是计算吞吐量全面显着增加。由于 SM 级别的变化,H100 的 FP32 和 FP64 吞吐量将 A100 击败。

3d3d4464-1b22-11ee-962d-dac502259ad0.png

H100 的改进将为各种应用程序带来性能优势,因为很难想象有任何 GPGPU 程序不使用 FP32 或 FP64。将这些操作的吞吐量加倍以及 SM 数量和时钟速度的增加将使工作负载更快地完成。

除了矢量计算性能之外,H100 还使张量核心吞吐量翻倍。张量核心专门通过打破 SIMT 模型来进行矩阵乘法,并在 warp 的寄存器中存储矩阵。我没有为张量核心编写测试,并且在不久的将来编写一个测试超出了我空闲时间爱好项目的时间范围。但是,我相信 Nvidia 关于这个主题的白皮书。

最后的话

近年来,消费类 GPU 已朝着在面对较小工作负载时保持良好性能的方向发展。当然,它们仍然很宽,但 AMD 和 Nvidia 在吞吐量和延迟之间取得了平衡。RDNA 2/3 和 Ada Lovelace 的运行频率均超过 2 GHz,这意味着它们的时钟速度接近服务器 CPU 的时钟速度。除了高时钟速度之外,复杂的缓存层次结构还提供延迟优势和高带宽,前提是访问模式对缓存友好。与此同时,昂贵的内存解决方案已经失宠。少数配备 HBM 的客户端 GPU 从未在配备 GDDR 的竞争对手中表现出色,尽管拥有更多的内存带宽和更多的计算吞吐量来支持这一点。

但这显然不适用于计算 GPU,因为它们已经朝着相反的方向发展。H100 是一款以相对较低的时钟运行的超宽 GPU,它强调每瓦性能而不是绝对性能。1755 MHz 是 Pascal 的典型频率,该架构是七年前推出的。与最新的客户端 GPU 相比,缓存容量和延迟表现一般。与此同时,英伟达并没有牺牲带宽。在带宽方面,H100 的 L2 并不落后于客户端 GPU。L2 之后,由于巨大的 HBM 配置,VRAM 带宽变得巨大。H100 与 A100 和 AMD 的 CDNA GPU 一样,旨在运行大型、长时间运行的作业。基于对 VRAM 带宽而非缓存容量的重视,这些作业可能属于这样的类别:如果您无法使用几十兆字节的缓存捕获访问模式,

H100 在 SM 级别上也有别于客户端设计。用于 L1 或共享内存的更多内存意味着精心设计的程序可以将大量数据保留在非常靠近执行单元的位置。在 H100 的 144 个物理 SM 中,有 36.8 MB 的 L1 和共享内存容量,这使得芯片面积投资显着。Nvidia 还使用 SM 区域来跟踪飞行中的更多扭曲,以应对更高的 L1 未命中延迟。H100 可以跟踪每个 SM 64 个扭曲,而客户端 Ampere 和 Ada Lovelace 则为 48 个。额外的 SM 区域用于使 FP32、FP64 和张量吞吐量加倍。

客户端 GPU 继续提供合理的计算能力,如果您足够讨厌自己,数据中心 GPU可能会被迫渲染图形。但在可预见的未来,面向计算和图形的架构可能会继续分化。Ada Lovelace 和 H100 有很多差异,即使它们基于相似的基础。在 AMD 方面,RDNA 和 CDNA 也继续存在分歧,尽管两者的 ISA 根源都可以追溯到古老的 GCN 架构。这种分歧是很自然的,因为工艺节点进展减慢,每个人都试图专业化以充分利用每个晶体管。

审核编辑:汤梓红

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 控制器
    +关注

    关注

    112

    文章

    16304

    浏览量

    177783
  • NVIDIA
    +关注

    关注

    14

    文章

    4971

    浏览量

    102960
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4722

    浏览量

    128870
  • 带宽
    +关注

    关注

    3

    文章

    925

    浏览量

    40910
  • 内存
    +关注

    关注

    8

    文章

    3016

    浏览量

    73989

原文标题:Nvidia 的 H100:有趣的 L2 和大量带宽

文章出处:【微信号:IC大家谈,微信公众号:IC大家谈】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    CUP缓存(L1、L2L3)是什么

    以近代CPU的视角来说,三级缓存(包括L1一级缓存L2二级缓存L3三级
    发表于 10-14 11:02 1w次阅读

    英伟达a100h100哪个强?英伟达A100H100的区别

    英伟达a100h100哪个强? 就A100H100这两个产品来说,它们虽然都是英伟达公司的高性能计算产品,但是面向的市场和应用场景不同,所以不能简单地说哪个更强。
    的头像 发表于 08-09 17:31 4.7w次阅读

    请教关于c6424 L2缓存设置问题

    想把L2空间一部分设置成缓存缓存大小为64kb,把DDR上最开始的16M设置成cacheable,我是这样配置的:L2CFG=0x2h
    发表于 08-02 07:44

    NVIDIA发布新一代产品—NVIDIA H100

    NVIDIA发布新一代产品—NVIDIA H100H100是一款超大的芯片,采用TSMC 4N工艺,具有800亿个晶体管,也是首款采用HBM3标准的GPU。
    的头像 发表于 03-23 17:21 2844次阅读
    <b class='flag-5'>NVIDIA</b>发布新一代产品—<b class='flag-5'>NVIDIA</b> <b class='flag-5'>H100</b>

    GTC2022大会黄仁勋:NVIDIA H100的5项突破性创新

    GTC2022大会黄仁勋:NVIDIA H100的5项突破性创新,拥有强大的性能,新的Tensor处理格式:FP8等,是首个实现性能扩展至700瓦的GPU。
    的头像 发表于 03-23 17:37 2317次阅读
    GTC2022大会黄仁勋:<b class='flag-5'>NVIDIA</b> <b class='flag-5'>H100</b>的5项突破性创新

    GTC2022大会亮点:NVIDIA发布全新AI计算系统—DGX H100

    GTC2022大会亮点:NVIDIA发布全新AI计算系统—DGX H100,借助NVLink连接,DGX使八块H100成为了一个巨型GPU。
    的头像 发表于 03-24 15:06 1902次阅读
    GTC2022大会亮点:<b class='flag-5'>NVIDIA</b>发布全新AI计算系统—DGX <b class='flag-5'>H100</b>

    NVIDIA发布最新Hopper架构的H100系列GPU和Grace CPU超级芯片

    今日凌晨,NVIDIA(英伟达)发布了基于最新Hopper架构的H100系列GPU和Grace CPU超级芯片!
    的头像 发表于 03-26 09:07 2868次阅读

    蓝海大脑服务器全力支持NVIDIA H100 GPU

    蓝海大脑宣布服务器产品线全力支持最新的 NVIDIA H100 GPU。蓝海大脑服务器产品在单机上最多可支持4、8甚至9个H100 GPU,可为多种人工智能场景提供超强算力、灵活的资源调度和成熟的生态支持。
    的头像 发表于 03-31 11:47 1310次阅读

    利用NVIDIA HGX H100加速计算数据中心平台应用

    HGX H100 8- GPU 是新一代 Hopper GPU 服务器的关键组成部分。它拥有八个 H100 张量核 GPU 和四个第三代 NV 交换机。每个 H100 GPU 都有多个第四代
    的头像 发表于 04-20 10:54 2811次阅读
    利用<b class='flag-5'>NVIDIA</b> HGX <b class='flag-5'>H100</b>加速计算数据中心平台应用

    关于NVIDIA H100 GPU的问题解答

    今年的 GTC22 上 NVIDIA 发布其首款基于 Hopper 架构的 GPU —NVIDIA H100
    的头像 发表于 07-18 10:35 1770次阅读

    详解NVIDIA H100 TransformerEngine

    H100发布之际,英伟达还带来一个“重磅产品”——Transformer Engine。在Transformer大火之际推出这么一个产品,无疑是炼丹师福音。
    的头像 发表于 10-24 15:26 3617次阅读

    英伟达a100h100哪个强?

    英伟达a100h100哪个强? 英伟达A100H100更强。英伟达A100在处理大型模型和数据集时可能比V
    的头像 发表于 08-07 17:32 1.5w次阅读

    英伟达h800和h100的区别

    不足,反而更贵。 NVIDIA H100 的中国版本就是:NVIDIA H800。        H800的的
    的头像 发表于 08-08 16:06 4.6w次阅读
    英伟达<b class='flag-5'>h</b>800和<b class='flag-5'>h100</b>的区别

    传英伟达新AI芯片H20综合算力比H100降80%

    但据悉,三种新型AI芯片不是“改良型”,而是“缩小型”。用于ai模型教育的hgx h20的带宽和计算速度是有限的。整体计算能力理论上比nvidiah100 gpu芯片低80%左右。
    的头像 发表于 11-13 09:41 1714次阅读

    揭秘:英伟达H100最强替代者

    目前,用于高端推理的 GPU 主要有三种:NVIDIA A100NVIDIA H100 和新的 NVIDIA
    的头像 发表于 11-13 16:13 1678次阅读
    揭秘:英伟达<b class='flag-5'>H100</b>最强替代者