0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

探究GPGPU体系结构优化策略

处理器与AI芯片 来源:处理器与AI芯片 2024-04-09 11:30 次阅读

最近读了 GPGPU Architectural Survey[1],这篇survey很长,这里简要的介绍内容,将我理解的方向和重点的论文介绍一下。

相关的论文我只介绍缩写的名字,大致介绍文章的内容,具体的内容还是要看survey和原文。

GPGPU的优化方向主要包括以下五点:

控制分支分叉优化

control flow divergence

Memory带宽优化

Efficient utilization of memory bandwidth

提高并行度和优化流水线

Increasing parallelism and improving execution pipelining

增强GPGPU可编程

Enhancing GPGPU programmability

CPU GPU异构架构优化

CPU–GPU heterogeneous architecture

2b441af4-f4d8-11ee-a297-92fbcf53809c.png

上图为近几年各个方向文章发表的比例

优化方向的前两点在这篇文章中介绍,后三点将会在下一篇文章介绍。

文末附有总结,也可以直接拉到文末。

文中baseline即指默认的GPGPU的配置。

控制分支分叉优化

GPU Warp内,32个线程(NVIDIA)锁步lock step执行时,如果遇到每个分支走上了不同分支,比如20个线程if,12个执行else,那么20个线程会先执行,mask调另外的12个。20个线程执行到分支合并点之后,另外12个再执行,直到这12个线程也进行到分支合并点。

如下图左侧所示。

2b63aee6-f4d8-11ee-a297-92fbcf53809c.png

这样的缺点:

不同的分支顺序执行

warp本应执行32个,这样导致单元利用率不高

分支divergence可能进一步导致memory divergence

具体优化的子方向如下图所示:

2b72d8d0-f4d8-11ee-a297-92fbcf53809c.png

Dynamic Regrouping Divergent Warps即为不同warp的分支合并为新的warp。

Large Warp/CTA compaction中的Thread Block Compaction,将thread block 内的thread共享分支mask栈(baseline 每个warp单独有自己的分支mask栈)。

2b7d798e-f4d8-11ee-a297-92fbcf53809c.png

Multi path execution即为if 和 else分支两路同时执行。

Dynamickernels/threads比如在图形应用中,可能会动态的创建kernel,在[3]中提出了在irregular benchmark中怎么减少创建的开销.

Memory带宽优化

2b979f44-f4d8-11ee-a297-92fbcf53809c.png

Two-level warp scheduling

baseline将所有的warp按照轮询的方式调度,但是如果程序是一致的,那么可能会所有的warp同时遇到cache miss的指令,导致很长的延迟。

TPRR(Two-Level Warp Scheduling):如果将warp分成两个level的warp。将32个warp组成了细粒度的4个fetch group,每个fetch group内部8个warp。直到一个fetch warp执行阻塞时,再执行另一组warp可以提高效率。

2ba82cf6-f4d8-11ee-a297-92fbcf53809c.png

Coarse-grained CTA throttling

baseline将在一个GPU core上尽量执行最多的CTA以增加线程并行度。

但是这样可能会导致大量的线程竞争memory,因此也有优化方案DYNCTA提出调度最佳而不是最多的CTA。

2bbde096-f4d8-11ee-a297-92fbcf53809c.png

Fine-grained warp throttling

baseline将在一个warp内的memory优化。不同的warp之间可能也会竞争共享的资源,比如一个warp访问的cache反复的被另一个warp竞争出去,即thrashing。可以通过将被thrashing的 warp优先执行,进行优化,即为PCAL(Priority-based cache allocation in throughput processors)。

Critical warp awareness

baseline对各个warp无感,但是实际上warp中也会有critical warp,执行的最慢成为关键路径,以下的情况可能会产生critical warp。

warp执行的workload比较重

warp执行了另外的控制分支

竞争memory。执行最慢的warp持续的刷LRU,导致这个warp占用了最多的cache

warp如果按照轮询调度,那么N个warp ready了之后,需要等待N个周期才能再次被调度

CAWA(Coordinated Warp Scheduling and Cache Prioritization for Critical WarpAcceleration of GPGPU Workloads)通过识别critical warp,优先调度并且优先cache 分配到这些warp上,来加速执行。

Cache management and bypassing

baseline 的cache之间没有配合。GCache(Adaptive Cache Bypass and Insertion for Many-core Accelerators)通过在L2 tag array中增加额外的标记来给L1 cache提供这个hot line在之前被evict出来,L1 Cache通过自适应的方法来锁定这些hot cacheline,防止thrashing,cache抖动。

Ordering buffers

如果不同的warp以interleave的方式发送memory的请求,这样memory footprint是所有warp整体的总和,如果能够一个warp先执行完,另一个warp再执行,那么memory footprint只是一个warp的memory footprint。

比如下图,将W3聚合在一起,可以减少footprint。即为ordering buffer, 详见MRPB: Memory request prioritization for massively parallel processors。

2bddc672-f4d8-11ee-a297-92fbcf53809c.png

Mitigating off-chip bandwidth bottleneck

LAMAR(local-aware memory hierarchy)注意到对于规范的GPGPU workload,每次memory 访问,进行粗粒度的内存访问可以利用空间局部性,也可以提高带宽。但是对于不规则的workload,细粒度的内存访问则更好,因此它对于不同的workload进行不同粒度的内存访问。

CABA(Core-Assised Bottleneck Acceleartion)如果存在带宽瓶颈,那么会使用空闲的计算单元,创建warp压缩内存,以避免带宽瓶颈。

Memory divergence normalization

baseline的prefetcher会根据当前的warp对下一个warp的内存进行预取,但是这样可能会late prefetch或者不准确产生useless prefetch。 Orchestrated Scheduling and Prefetching for GPGPUs 论文比对了之前的TPRR,认为使用当前的fetch group预测下一个fetch group进行预测是不准确的,因为从使用warp1-warp4的访问去预测warp5-warp8的访问可能不准确,因此它细粒度的先执行warp 1/3/5/7,使用产生的地址去预测warp2/4/6/8. 下图中的D1-D7即为warp产生的访问内存的请求,黄色和红色的即为TPRR中不同的fetch group,在之前的TPRR fetch group中包含8个warp。

2c022210-f4d8-11ee-a297-92fbcf53809c.png

Main memory scheduling

baseline的linux page placement主要处理CPU-only NUMA系统,致力于减少memory latency。但是GPU对bandwidth更加敏感,因此论文Page Placement Strategies for GPUswithin Heterogeneous Memory Systems通过平衡page placement来最大化memory bandwidth。

CPU–GPU memory transfer overhead

baseline的GPGPU启动时,需要等待CPU将数据完全将内存拷贝到GPU内存,才能开始计算。

Reducing GPU Offload Latency via Fine-Grained CPU-GPU Synchronization通过增加full-empty bists,来追踪已经传输完成的page。如果GPGPU计算所依赖的数据已经传输完毕,就可以直接执行。这样可以overlap 执行和数据搬运的时间。

总结

1.Control Divergence

因为warp内可能存在不同的分支执行路径,因此合并不同warp的相同分支,产生新的warp,也可以在整个CTA的范围内合并warp。

也可以同时执行分支的不同路径。

因为CUDA后面支持kernel执行时自己产生新的kernel,但是产生新的kernel开销很大,所以可以减少开销。

2. Memory 带宽和利用率优化

不是简单的轮询调度warp,而是将其切割成fetch group。后面的优化方案又结合了fetch group和prefetch

可以在CTA的粒度上节流线程的执行,以减少memory竞争。同样,也可以在warp的力度上进行节流,防止warp之间的竞争。

可以优化cache,防止cache的抖动,thrashing问题。也可以bypass

识别关键的warp,优先执行关键warp

对访问内存的请求进行ordering,减少memory footprint

利用空闲的执行单元进行压缩,避免bandwidth bottleneck

针对GPU memory系统设计bandwidth有限的page placement 策略

审核编辑:黄飞

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4723

    浏览量

    128872
  • 内存
    +关注

    关注

    8

    文章

    3016

    浏览量

    73989
  • 线程
    +关注

    关注

    0

    文章

    504

    浏览量

    19674
  • GPGPU
    +关注

    关注

    0

    文章

    29

    浏览量

    4897

原文标题:GPGPU体系结构优化方向 [上]

文章出处:【微信号:处理器与AI芯片,微信公众号:处理器与AI芯片】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    ARM SOC体系结构

    ARMSOC 体系结构
    发表于 11-22 10:54

    ARM体系结构是怎样的?

    ARM体系结构是怎样的?
    发表于 11-05 06:40

    Microarchitecture指令集体系结构

    第二章 ARM微处理器概述与编程模型ARM体系结构及其发展历史处理器的体系结构处理器微架构 Microarchitecture指令集体系结构 Architecture几种常见的指令集X86Inter
    发表于 12-14 07:13

    浅析嵌入式实时系统的体系结构设计

    ②和③D.①、②和③62、D[解析] 体系结构描述系统的分解、全局控制流、错误处理策略、子系统间的通信协议和接口、系统安全策略等系统的整体架构,不关心子系统的详细设计和实现。输入信号预处理、主控制过程和网络接口等都属于
    发表于 12-22 06:09

    Arm的DRTM体系结构规范

    本规范定义了基于Arm A配置文件体系结构的处理器的动态测量信任根(DRTM)体系结构。本规范基于TCG D-RTM体系结构[4]的概念,但作为一个独立的独立文档发挥作用。它使用了TCG体系结
    发表于 08-08 07:45

    Arm Power Policy Unit 1.1版体系结构规范

    本规范描述了电源策略单元(PPU)体系结构。它定义了PPU体系结构的1.1版本。 PPU规范的1.1版增加了对操作模式的支持。由于功能或更高粒度的功率控制原因,这使得能够支持特定于组件的功率模式
    发表于 08-11 06:14

    ARM体系结构与编程

    ARM体系结构与编程
    发表于 02-11 09:35 169次下载
    ARM<b class='flag-5'>体系结构</b>与编程

    LTE体系结构

    LTE体系结构 LTE体系结构可以借助SAE 体系结构来做详细描述。在SAE 体系结构中,RNC部分功能、GGSN、SGSN 节点将被融合为一个新的节点,
    发表于 06-16 13:09 9821次阅读

    网络体系结构,什么是网络体系结构

    网络体系结构,什么是网络体系结构 通过通信信道和设备互连起来的多个不同地理位置的计算机系统,要使其能协同工作实现信息交换和资源共享
    发表于 04-06 16:30 1700次阅读

    ARM体系结构与程序设计

    《ARM体系结构与程序设计》是ARM体系结构与程序设计的一本实用指导书籍,通过案例详细介绍了ARM体系结构与程序设计,案例中的程序都取自实际的项目,且对程序有详细注解。
    发表于 10-27 16:37 2359次阅读

    XScale体系结构及编译优化问题

    XScale是一款具有业界领先高性能特性的ARM兼容嵌入式微处理器构架被应用处理 能力要求很高的嵌入式应用领域如PDA、高带宽网络交换等。本文分析了RISC、 ARM和XScale体系结构的特点
    发表于 04-18 10:28 0次下载

    软件体系结构的分析

    软件系统因具有节点众多、节点间联系复杂、随时间演化、自组织临界等特性可将其视为复杂系统。在软件安全领域,对软件体系结构的分析一直是研究的重点。软件体系结构具有自身的脆性,这体现在软件系统的运行过程
    发表于 11-24 10:34 15次下载
    软件<b class='flag-5'>体系结构</b>的分析

    基于DoDAF的卫星应用信息链体系结构

    针对侦察卫星应用信息链体系结构建模问题,提出了基于DoDAF (department of defense architect framework)的体系结构描述方法和基于ABM (activity
    发表于 01-10 16:58 1次下载

    Oracle体系结构讲解

    Oracle体系结构讲解(开关电源技术的节能意义)-该文档为Oracle体系结构讲解文档,是一份十分不错的参考资料,感兴趣的可以下载看看,,,,,,,,,,,,,,,,,,,,,
    发表于 09-27 10:27 3次下载
    Oracle<b class='flag-5'>体系结构</b>讲解

    GPGPU体系结构优化方向(1)

    继续上文GPGPU体系结构优化方向 [上],介绍提高并行度和优化流水线的方向。
    的头像 发表于 10-09 10:03 260次阅读
    <b class='flag-5'>GPGPU</b><b class='flag-5'>体系结构</b><b class='flag-5'>优化</b>方向(1)