0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NIVDIA的reduce优化笔记

jf_pmFSk4VX 来源:GiantPandaCV 2023-01-12 15:05 次阅读

问题介绍

通俗的来说,Reduce就是要对一个数组求 sum,min,max,avg 等等。Reduce又被叫作规约,意思就是递归约减,最后获得的输出相比于输入一般维度上会递减。

比如 nvidia 博客上这个 Reduce Sum 问题,一个长度为 8 的数组求和之后得到的输出只有一个数,从 1 维数组变成一个标量。本文就以 Reduce Sum 为例来记录 Reduce 优化。

5bb710aa-8be4-11ed-bfe3-dac502259ad0.png

硬件环境

NVIDIA A100-PCIE-40GB , 峰值带宽在 1555 GB/s , CUDA版本为11.8.

构建BaseLine

在问题介绍一节中的 Reduce 求和图实际上就指出了 BaseLine 的执行方式,我们将以树形图的方式去执行数据累加,最终得到总和。但由于GPU没有针对 global memory 的同步操作,所以博客指出我们可以通过将计算分成多个阶段的方式来避免 global memrory 的操作。如下图所示:

5bd8e1da-8be4-11ed-bfe3-dac502259ad0.png

接着 NVIDIA 博客给出了 BaseLine 算法的实现:

5bf0645e-8be4-11ed-bfe3-dac502259ad0.png在这里插入图片描述

这里的 g_idata 表示的是输入数据的指针,而 g_odata 则表示输出数据的指针。然后首先把 global memory 数据 load 到 shared memory 中,接着在 shared memory 中对数据进行 Reduce Sum 操作,最后将 Reduce Sum 的结果写会 global memory 中。

但接下来的这页 PPT 指出了 Baseine 实现的低效之处:

5c0a9298-8be4-11ed-bfe3-dac502259ad0.png

这里指出了2个问题,一个是warp divergent,另一个是取模这个操作很昂贵。这里的warp divergent 指的是对于启动 BaseLine Kernel 的一个 block 的 warp 来说,它所有的 thread 执行的指令都是一样的,而 BaseLine Kernel 里面存在 if 分支语句,一个 warp 的32个 thread 都会执行存在的所有分支,但只会保留满足条件的分支产生的结果。

5c28531e-8be4-11ed-bfe3-dac502259ad0.png

我们可以在第8页PPT里面看到,对于每一次迭代都会有两个分支,分别是有竖直的黑色箭头指向的小方块(有效计算的线程)以及其它没有箭头指向的方块,所以每一轮迭代实际上都有大量线程是空闲的,无法最大程度的利用GPU硬件。

从这个PPT我们可以计算出,对于一个 Block 来说要完成Reduce Sum,一共有8次迭代,并且每次迭代都会产生warp divergent。

接下来我们先把 BaseLine 的代码抄一下,然后我们设定好一个 GridSize 和 BlockSize 启动 Kernel 测试下性能。在PPT的代码基础上,我么补充一下内存申请以及启动 Kernel 的代码。

#include
#include
#include

#defineN32*1024*1024
#defineBLOCK_SIZE256

__global__voidreduce_v0(float*g_idata,float*g_odata){
__shared__floatsdata[BLOCK_SIZE];

//eachthreadloadsoneelementfromglobaltosharedmem
unsignedinttid=threadIdx.x;
unsignedinti=blockIdx.x*blockDim.x+threadIdx.x;
sdata[tid]=g_idata[i];
__syncthreads();

//doreductioninsharedmem
for(unsignedints=1;s< blockDim.x; s *= 2) {
        if (tid % (2*s) == 0) {
            sdata[tid] += sdata[tid + s];
        }
        __syncthreads();
    }

    // write result for this block to global mem
    if (tid == 0) g_odata[blockIdx.x] = sdata[0];
}

int main() {
    float *input_host = (float*)malloc(N*sizeof(float));
    float *input_device;
    cudaMalloc((void **)&input_device, N*sizeof(float));
    for (int i = 0; i < N; i++) input_host[i] = 2.0;
    cudaMemcpy(input_device, input_host, N*sizeof(float), cudaMemcpyHostToDevice);

    int32_t block_num = (N + BLOCK_SIZE - 1) / BLOCK_SIZE;
    float *output_host = (float*)malloc((N / BLOCK_SIZE) * sizeof(float));
    float *output_device;
    cudaMalloc((void **)&output_device, (N / BLOCK_SIZE) * sizeof(float));
    
    dim3 grid(N / BLOCK_SIZE, 1);
    dim3 block(BLOCK_SIZE, 1);
    reduce_v0<<>>(input_device,output_device);
cudaMemcpy(output_device,output_host,block_num*sizeof(float),cudaMemcpyDeviceToHost);
return0;
}

我们这里设定输入数据的长度是 32*1024*1024 个float数 (也就是PPT中的4M数据),然后每个 block 的线程数我们设定为 256 (BLOCK_SIZE = 256, 也就是一个 Block 有 8 个 warp)并且每个 Block 要计算的元素个数也是 256 个,然后当一个 Block 的计算完成后对应一个输出元素。

所以对于输出数据来说,它的长度是输入数据长度处以 256 。我们代入 kernel 加载需要的 GridSize(N / 256) 和 BlockSize(256) 再来理解一下 BaseLine 的 Reduce kernel。

首先,第 tid 号线程会把 global memroy 的第 i 号数据取出来,然后塞到 shared memroy 中。接下来针对已经存储到 shared memroy 中的 256 个元素展开多轮迭代,迭代的过程如 PPT 的第8页所示。完成迭代过程之后,这个 block 负责的256个元素的和都放到了 shared memrory 的0号位置,我们只需要将这个元素写回global memory就做完了。

接下来我们使用 nvcc -o bin/reduce_v0 reduce_v0_baseline.cu 编译一下这个源文件,并且使用nsight compute去profile一下。

性能和带宽的测试情况如下:

优化手段 耗时(us) 带宽利用率 加速比
reduce_baseline 990.66us 39.57% ~

优化手段1: 交错寻址(Interleaved Addressing)

接下来直接NVIDIA的PPT给出了优化手段1:

5c3fda0c-8be4-11ed-bfe3-dac502259ad0.png

这里是直接针对 BaseLine 中的 warp divergent 问题进行优化,通过调整BaseLine中的分支判断代码使得更多的线程可以走到同一个分支里面,降低迭代过程中的线程资源浪费。具体做法就是把 if (tid % (2*s) == 0) 替换成 strided index的方式也就是int index = 2 * s * tid,然后判断 index 是否在当前的 block 内。

虽然这份优化后的代码没有完全消除if语句,但是我们可以来计算一下这个版本的代码在8次迭代中产生 warp divergent 的次数。对于第一次迭代,0-3号warp的index都是满足=blockDim.x的,也就是说这次迭代根本不会出现warp divergent的问题,因为每个warp的32个线程执行的都是相同的分支。

接下来对于第二代迭代,0,1两个warp是满足=blockDim.x,依然不会出现warp divergent,以此类推直到第4次迭代时0号warp的前16个线程和后16线程会进入不同的分支,会产生一次warp divergent,接下来的迭代都分别会产生一次warp divergent。

但从整体上看,这个版本的代码相比于BaseLine的代码产生的warp divergent次数会少得多。

我们继续抄一下这个代码然后进行profile一下。

#defineN32*1024*1024
#defineBLOCK_SIZE256

__global__voidreduce_v1(float*g_idata,float*g_odata){
__shared__floatsdata[BLOCK_SIZE];

//eachthreadloadsoneelementfromglobaltosharedmem
unsignedinttid=threadIdx.x;
unsignedinti=blockIdx.x*blockDim.x+threadIdx.x;
sdata[tid]=g_idata[i];
__syncthreads();

//doreductioninsharedmem
for(unsignedints=1;s< blockDim.x; s *= 2) {
        // if (tid % (2*s) == 0) {
        //     sdata[tid] += sdata[tid + s];
        // }
        int index = 2 * s * tid;
        if (index < blockDim.x) {
            sdata[tid] += sdata[tid + s];
        }
        __syncthreads();
    }

    // write result for this block to global mem
    if (tid == 0) g_odata[blockIdx.x] = sdata[0];
}

性能和带宽的测试情况如下:

优化手段 耗时(us) 带宽利用率 加速比
reduce_baseline 990.66us 39.57% ~
reduce_v1_interleaved_addressing 479.58us 81.74% 2.06

可以看到这个优化还是很有效的,相比于BaseLine的性能有2倍的提升。

优化手段2: 解决Bank Conflict

对于 reduce_v1_interleaved_addressing 来说,它最大的问题时产生了 Bank Conflict。使用 shared memory 有以下几个好处:

更低的延迟(20-40倍)

更高的带宽(约为15倍)

更细的访问粒度,shared memory是4byte,global memory是32byte

但是 shared memrory 的使用量存在一定上限,而使用 shared memory 要特别小心 bank conflict 。实际上,shared memory 是由 32 个 bank 组成的,如下面这张 PPT 所示:

5c606a06-8be4-11ed-bfe3-dac502259ad0.png

而 bank conflict 指的就是在一个 warp 内,有2个或者以上的线程访问了同一个 bank 上不同地址的内存。比如:

5c7ce870-8be4-11ed-bfe3-dac502259ad0.png

在 reduce_v1_interleaved_addressing 的 Kernel 中,我们以0号warp为例。在第一次迭代中,0号线程需要去加载 shared memory 的0号和1号地址,然后写回0号地址。此时,0号 warp 的16号线程需要加载 shared memory 的32和33号地址并且写回32号地址。

所以,我们在一个warp内同时访问了一个bank的不同内存地址,发生了2路的 Bank Conflict,如上图所示。类似地,在第二次迭代过程中,0号warp的0号线程会加载0号和2号地址并写回0号地址,然后0号warp的8号线程需要加载 shared memory 的32号和34号地址(2*2*8=32, 32+2=34)并写回32号线程,16号线程会加载64号和68号地址,24号线程会加载96号和100号地址。

然后0,32,64,96号地址都在一个bank中,所以这里产生了4路的 Bank Conflict 。以此类推,下一次迭代会产生8路的 Bank Conflict,使得整个 Kernel 一直受到 Bank Conflict 的影响。

接下来PPT为我们指出了避免Bank Conflict的方案,那就是把循环迭代的顺序修改一下:

5c993b74-8be4-11ed-bfe3-dac502259ad0.png

为啥这样就可以避免Bank Conflict呢?我们继续分析一下0号wap的线程,首先在第一轮迭代中,0号线程现在需要加载0号以及128号地址,并且写回0号地址。而1号线程需要加载1号和129号地址并写回1号地址。2号线程需要加载2号和130号地址并写回2号地址。

我们可以发现第0个warp的线程在第一轮迭代中刚好加载shared memory的一行数据,不会产生 bank conflict。接下来对于第2次迭代,0号warp仍然也是刚好加载shared memory的一行数据,不会产生 bank conflict 。对于第三次迭代,也是这样。

而对于第4次迭代,0号线程load shared memory 0号和16号地址,而这个时候16号线程什么都不干被跳过了,因为s=16,16-31号线程不满足if的条件。整体过程如PPT的14页:

5cb2c22e-8be4-11ed-bfe3-dac502259ad0.png

接下来我们修改下代码再profile一下:

#defineN32*1024*1024
#defineBLOCK_SIZE256

__global__voidreduce_v2(float*g_idata,float*g_odata){
__shared__floatsdata[BLOCK_SIZE];

//eachthreadloadsoneelementfromglobaltosharedmem
unsignedinttid=threadIdx.x;
unsignedinti=blockIdx.x*blockDim.x+threadIdx.x;
sdata[tid]=g_idata[i];
__syncthreads();

//doreductioninsharedmem
for(unsignedints=blockDim.x/2;s>0;s>>=1){
if(tid< s){
            sdata[tid] += sdata[tid + s];
        }
        __syncthreads();
    }

    // write result for this block to global mem
    if (tid == 0) g_odata[blockIdx.x] = sdata[0];
}

性能和带宽的测试情况如下:

优化手段 耗时(us) 带宽利用率 加速比
reduce_baseline 990.66us 39.57% ~
reduce_v1_interleaved_addressing 479.58us 81.74% 2.06
reduce_v2_bank_conflict_free 462.02us 84.81% 2.144

可以看到相比于优化版本1性能和带宽又提升了一些。

优化手段3: 解决 Idle 线程

接下来PPT 17指出,reduce_v2_bank_conflict_free 的 kernel 浪费了大量的线程。对于第一轮迭代只有128个线程在工作,而第二轮迭代只有64个线程工作,第三轮迭代只有32和线程工作,以此类推,在每一轮迭代中都有大量的线程是空闲的。

5cc2217e-8be4-11ed-bfe3-dac502259ad0.png

那么可以如何避免这种情况呢?PPT 18给了一个解决方法:

5cd37f3c-8be4-11ed-bfe3-dac502259ad0.png

这里的意思就是我们让每一轮迭代的空闲的线程也强行做一点工作,除了从global memory中取数之外再额外做一次加法。但需要注意的是,为了实现这个我们需要把block的数量调成之前的一半,因为这个Kernel现在每次需要管512个元素了。我们继续组织下代码并profile一下:

#defineN32*1024*1024
#defineBLOCK_SIZE256

__global__voidreduce_v3(float*g_idata,float*g_odata){
__shared__floatsdata[BLOCK_SIZE];

//eachthreadloadsoneelementfromglobaltosharedmem
unsignedinttid=threadIdx.x;
unsignedinti=blockIdx.x*(blockDim.x*2)+threadIdx.x;
sdata[tid]=g_idata[i]+g_idata[i+blockDim.x];
__syncthreads();

//doreductioninsharedmem
for(unsignedints=blockDim.x/2;s>0;s>>=1){
if(tid< s){
            sdata[tid] += sdata[tid + s];
        }
        __syncthreads();
    }

    // write result for this block to global mem
    if (tid == 0) g_odata[blockIdx.x] = sdata[0];
}

性能和带宽的测试情况如下:

优化手段 耗时(us) 带宽利用率 加速比
reduce_baseline 990.66us 39.57% ~
reduce_v1_interleaved_addressing 479.58us 81.74% 2.06
reduce_v2_bank_conflict_free 462.02us 84.81% 2.144
reduce_v3_idle_threads_free 244.16us 83.16% 4.057

优化手段4: 展开最后一个warp

首先来看 PPT 的第20页:

5cea4636-8be4-11ed-bfe3-dac502259ad0.png

这里的意思是,对于 reduce_v3_idle_threads_free 这个 kernel 来说,它的带宽相比于理论带宽还差得比较远,因为 Reduce 操作并不是算术密集型的算子。

因此,一个可能的瓶颈是指令的开销。这里说的指令不是加载,存储或者给计算核心用的辅算术指令。换句话说,这里的指令就是指地址算术指令和循环的开销。

接下来 PPT 21指出了减少指令开销的优化方法:

5d14e2a6-8be4-11ed-bfe3-dac502259ad0.png

这里的意思是当reduce_v3_idle_threads_free kernel里面的s<=32时,此时的block中只有一个warp0在干活时,但线程还在进行同步操作。这一条语句造成了极大的指令浪费。

由于一个warp的32个线程都是在同一个simd单元上,天然保持了同步的状态,所以当s<=32时,也即只有一个warp在工作时,完全可以把__syncthreads()这条同步语句去掉,使用手动展开的方式来代替。具体做法就是:

5d34a7a8-8be4-11ed-bfe3-dac502259ad0.png

注意

这里的warpReduce函数的参数使用了一个volatile修饰符号,volatile的中文意思是“易变的,不稳定的”,对于用volatile修饰的变量,编译器对访问该变量的代码不再优化,总是从它所在的内存读取数据。

对于这个例子,如果不使用volatile,对于一个线程来说(假设线程ID就是tid),它的s_data[tid]可能会被缓存在寄存器里面,且在某个时刻寄存器和shared memory里面s_data[tid]的数值还是不同的。

当另外一个线程读取s_data[tid]做加法的时候,也许直接就从shared memory里面读取了旧的数值,从而导致了错误的结果。

__device__voidwarpReduce(volatilefloat*cache,unsignedinttid){
cache[tid]+=cache[tid+32];
cache[tid]+=cache[tid+16];
cache[tid]+=cache[tid+8];
cache[tid]+=cache[tid+4];
cache[tid]+=cache[tid+2];
cache[tid]+=cache[tid+1];
}

__global__voidreduce_v4(float*g_idata,float*g_odata){
__shared__floatsdata[BLOCK_SIZE];

//eachthreadloadsoneelementfromglobaltosharedmem
unsignedinttid=threadIdx.x;
unsignedinti=blockIdx.x*(blockDim.x*2)+threadIdx.x;
sdata[tid]=g_idata[i]+g_idata[i+blockDim.x];
__syncthreads();

//doreductioninsharedmem
for(unsignedints=blockDim.x/2;s>32;s>>=1){
if(tid< s){
            sdata[tid] += sdata[tid + s];
        }
        __syncthreads();
    }

    // write result for this block to global mem
    if (tid < 32) warpReduce(sdata, tid);
    if (tid == 0) g_odata[blockIdx.x] = sdata[0];
}

性能和带宽的测试情况如下:

优化手段 耗时(us) 带宽利用率 加速比
reduce_baseline 990.66us 39.57% ~
reduce_v1_interleaved_addressing 479.58us 81.74% 2.06
reduce_v2_bank_conflict_free 462.02us 84.81% 2.144
reduce_v3_idle_threads_free 244.16us 83.16% 4.057
reduce_v4_unroll_last_warp 167.10us 54.10% 5.928

这个地方我目前是有疑问的,nvidia的ppt指出这个kernel会继续提升性能和带宽,但是在我实测的时候发现性能确实继续提升了,但是带宽的利用率却下降了,目前想不清楚这个原因是什么?这里唯一的区别就是我使用的GPU是 A100-PCIE-40GB,而nvidia gpu上使用的gpu是 G80 GPU 。欢迎大佬评论区指点。

5d53518a-8be4-11ed-bfe3-dac502259ad0.png

优化手段5: 完全展开循环

在 reduce_v4_unroll_last_warp kernel 的基础上就很难再继续优化了,但为了极致的性能NVIDIA的PPT上给出了对for循环进行完全展开的方案。

5d691a56-8be4-11ed-bfe3-dac502259ad0.png

这种方案的实现如下:

5d846982-8be4-11ed-bfe3-dac502259ad0.png

kernel的代码实现如下:

template
__device__voidwarpReduce(volatilefloat*cache,inttid){
if(blockSize>=64)cache[tid]+=cache[tid+32];
if(blockSize>=32)cache[tid]+=cache[tid+16];
if(blockSize>=16)cache[tid]+=cache[tid+8];
if(blockSize>=8)cache[tid]+=cache[tid+4];
if(blockSize>=4)cache[tid]+=cache[tid+2];
if(blockSize>=2)cache[tid]+=cache[tid+1];
}

template
__global__voidreduce_v5(float*g_idata,float*g_odata){
__shared__floatsdata[BLOCK_SIZE];

//eachthreadloadsoneelementfromglobaltosharedmem
unsignedinttid=threadIdx.x;
unsignedinti=blockIdx.x*(blockDim.x*2)+threadIdx.x;
sdata[tid]=g_idata[i]+g_idata[i+blockDim.x];
__syncthreads();

//doreductioninsharedmem
if(blockSize>=512){
if(tid<256){
            sdata[tid]+=sdata[tid+256];
        }
        __syncthreads();
    }
    if(blockSize>=256){
if(tid<128){
            sdata[tid]+=sdata[tid+128];
        }
        __syncthreads();
    }
    if(blockSize>=128){
if(tid<64){
            sdata[tid]+=sdata[tid+64];
        }
        __syncthreads();
    }
    
    // write result for this block to global mem
    if(tid<32)warpReduce(sdata,tid);
if(tid==0)g_odata[blockIdx.x]=sdata[0];
}

性能和带宽的测试情况如下:

优化手段 耗时(us) 带宽利用率 加速比
reduce_baseline 990.66us 39.57% ~
reduce_v1_interleaved_addressing 479.58us 81.74% 2.06
reduce_v2_bank_conflict_free 462.02us 84.81% 2.144
reduce_v3_idle_threads_free 244.16us 83.16% 4.057
reduce_v4_unroll_last_warp 167.10us 54.10% 5.928
reduce_v5_completely_unroll 158.78us 56.94% 6.239

优化手段6: 调节BlockSize和GridSize

PPT的第31页为我们展示了最后一个优化技巧:

5df3efa0-8be4-11ed-bfe3-dac502259ad0.png

这里的意思就是我们还可以通过调整GridSize和BlockSize的方式获得更好的性能收益,也就是说一个线程负责更多的元素计算。对应到代码的修改就是:

5e2163ae-8be4-11ed-bfe3-dac502259ad0.png

这里再贴一下kernel的代码:

template
__device__voidwarpReduce(volatilefloat*cache,inttid){
if(blockSize>=64)cache[tid]+=cache[tid+32];
if(blockSize>=32)cache[tid]+=cache[tid+16];
if(blockSize>=16)cache[tid]+=cache[tid+8];
if(blockSize>=8)cache[tid]+=cache[tid+4];
if(blockSize>=4)cache[tid]+=cache[tid+2];
if(blockSize>=2)cache[tid]+=cache[tid+1];
}

template
__global__voidreduce_v6(float*g_idata,float*g_odata){
__shared__floatsdata[BLOCK_SIZE];

//eachthreadloadsoneelementfromglobaltosharedmem
unsignedinttid=threadIdx.x;
unsignedinti=blockIdx.x*(blockDim.x*NUM_PER_THREAD)+threadIdx.x;
sdata[tid]=0;
#pragmaunroll
for(intiter=0;iter=512){
if(tid<256){
            sdata[tid]+=sdata[tid+256];
        }
        __syncthreads();
    }
    if(blockSize>=256){
if(tid<128){
            sdata[tid]+=sdata[tid+128];
        }
        __syncthreads();
    }
    if(blockSize>=128){
if(tid<64){
            sdata[tid]+=sdata[tid+64];
        }
        __syncthreads();
    }
    
    // write result for this block to global mem
    if(tid<32)warpReduce(sdata,tid);
if(tid==0)g_odata[blockIdx.x]=sdata[0];
}

intmain(){
float*input_host=(float*)malloc(N*sizeof(float));
float*input_device;
cudaMalloc((void**)&input_device,N*sizeof(float));
for(inti=0;i< N; i++) input_host[i] = 2.0;
    cudaMemcpy(input_device, input_host, N*sizeof(float), cudaMemcpyHostToDevice);

    const int block_num = 1024;
    const int NUM_PER_BLOCK = N / block_num;
    const int NUM_PER_THREAD = NUM_PER_BLOCK / BLOCK_SIZE;
    float *output_host = (float*)malloc((block_num) * sizeof(float));
    float *output_device;
    cudaMalloc((void **)&output_device, (block_num) * sizeof(float));
    
    dim3 grid(block_num, 1);
    dim3 block(BLOCK_SIZE, 1);
    reduce_v6<<>>(input_device,output_device);
cudaMemcpy(output_device,output_host,block_num*sizeof(float),cudaMemcpyDeviceToHost);
return0;
}

profile结果:

5e3ecc8c-8be4-11ed-bfe3-dac502259ad0.png

性能和带宽的测试情况如下:

优化手段 耗时(us) 带宽利用率 加速比
reduce_baseline 990.66us 39.57% ~
reduce_v1_interleaved_addressing 479.58us 81.74% 2.06
reduce_v2_bank_conflict_free 462.02us 84.81% 2.144
reduce_v3_idle_threads_free 244.16us 83.16% 4.057
reduce_v4_unroll_last_warp 167.10us 54.10% 5.928
reduce_v5_completely_unroll 158.78us 56.94% 6.239
reduce_v6_multi_add 105.47us 85.75% 9.392

在把block_num从65536调整到1024之后,无论是性能还是带宽都达到了最强,相比于最初的BaseLine加速了9.4倍。

总结

我这里的测试结果和nvidia ppt里提供的结果有一些出入,nvidia ppt的34页展示的结果是对于每一种优化相比于前一种无论是性能还是带宽都是稳步提升的。但我这里的测试结果不完全是这样,对于 reduce_v4_unroll_last_warp 和 reduce_v5_completely_unroll 这两个优化,虽然耗时近一步减少但是带宽却降低了,我也还没想清楚原因。

5e5077fc-8be4-11ed-bfe3-dac502259ad0.png

并且最终的Kernel带宽利用率为 73 / 86.4 = 84.5% ,和我在A100上的reduce_v6_multi_add kernel的测试结果基本相当。






审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4665

    浏览量

    128544
  • NIVDIA
    +关注

    关注

    0

    文章

    6

    浏览量

    7127

原文标题:【BBuf的CUDA笔记】三,reduce优化入门学习笔记

文章出处:【微信号:GiantPandaCV,微信公众号:GiantPandaCV】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    PCB design for reduce EMI

    PCB design for reduce EMI
    发表于 08-20 15:55

    绿茶系统 Ghost WinXP SP3 笔记优化版 V2013.03

    绿茶系统 Ghost WinXP SP3 笔记优化版 V2013.03右键使用迅雷高速下载地址:thunder://QUFodHRwOi8vZDEzMDIueHk1OC5uZXQvMjAxMzAzL0xDWFRfR2hvc3RfV2luWFBfU1AzX1YyMDEzL
    发表于 03-27 09:05

    成功解决pyinstaller打包AttributeErrortype object pandas_TSObject has no attribute _reduce_cython_

    成功解决pyinstaller打包AttributeErrortype object pandas_TSObject has no attribute _reduce_cython_
    发表于 12-19 17:04

    成功解决AttributeError type object 'h5pyh5rReference' has no attribute '__reduce_cython__'

    成功解决AttributeError type object 'h5pyh5rReference' has no attribute '__reduce_cython__'
    发表于 12-20 10:32

    How to Reduce Reference Noise

    How to Reduce Reference Noise by Half Abstract: A low-noise, 2.5V reference is constructed
    发表于 01-23 22:39 1640次阅读
    How to <b class='flag-5'>Reduce</b> Reference Noise

    Reduce Standby Power Drains wi

    Reduce Standby Power Drains with Ultra-Low-Current, Isolated, Pulse-Frequency-Modulated (PFM) DC-DC
    发表于 03-23 21:05 2649次阅读
    <b class='flag-5'>Reduce</b> Standby Power Drains wi

    Reduce System Cost for Advance

    Reduce System Cost for Advanced Powerline Monitoring by Leveraging High-Performance
    发表于 10-03 08:43 1806次阅读
    <b class='flag-5'>Reduce</b> System Cost for Advance

    笔记本音频系统的优化与保养

    笔记本音频系统的优化与保养 随着笔记本硬件水平的提升,笔记本在各个方面已经逐渐达到了主流台式机的水平,开始具备了替代台
    发表于 10-15 23:12 1289次阅读

    笔记本音响系统分析及其优化

    笔记本音响系统分析及其优化 前言:   随着笔记本硬件水平的提升,笔记本在各个方面已经逐渐达到了主流台式机的水平,
    发表于 01-23 08:48 564次阅读

    Reduce阶段values中的每个值都共享一个对象

    Hadoop备忘:Reduce阶段IterableVALUEIN values中的每个都共享一个对象。在Reduce阶段,具有相同key的的所有的value都会被组织到一起,形成一种key:values的形式。
    发表于 11-28 11:00 1331次阅读

    mapreduce工作原理图文详解_Map、Reduce任务中Shuffle和排序

    本文主要分析以下两点内容:1.MapReduce作业运行流程原理2.Map、Reduce任务中Shuffle和排序的过程。分析如下文
    发表于 01-02 14:39 8468次阅读
    mapreduce工作原理图文详解_Map、<b class='flag-5'>Reduce</b>任务中Shuffle和排序

    如何开始一个项目垫集成流:如何快速配置新笔记优化设计库

    学习如何快速配置新笔记优化设计库,所以你可以简单地拖拽到方案设计部分。
    的头像 发表于 10-10 07:10 2776次阅读

    LTC2064 Demo Circuit - Example Use of Parallel Amplifiers to Reduce Noise by Square Root of 2

    LTC2064 Demo Circuit - Example Use of Parallel Amplifiers to Reduce Noise by Square Root of 2
    发表于 02-01 09:25 0次下载
    LTC2064 Demo Circuit - Example Use of Parallel Amplifiers to <b class='flag-5'>Reduce</b> Noise by Square Root of 2

    LTC2067 Demo Circuit - Example Use of Parallel Amplifiers to Reduce Noise by Square Root of 2

    LTC2067 Demo Circuit - Example Use of Parallel Amplifiers to Reduce Noise by Square Root of 2
    发表于 02-01 14:43 1次下载
    LTC2067 Demo Circuit - Example Use of Parallel Amplifiers to <b class='flag-5'>Reduce</b> Noise by Square Root of 2

    AD6633:采用VersaCREST®Crest Reduce Engine的多通道数字上变频器数据表

    AD6633:采用VersaCREST®Crest Reduce Engine的多通道数字上变频器数据表
    发表于 04-22 11:44 0次下载
    AD6633:采用VersaCREST®Crest <b class='flag-5'>Reduce</b> Engine的多通道数字上变频器数据表