1 代码结构&调用流程
1.1 代码结构
llama.cpp 的代码结构比较直观,如下所示,为整体代码结构中的比较核心的部分的代码结构
|--example ||--main ||--main.cpp#推理llama2的主函数 |--ggml.c#ggml.c和.h文件定义一些框架的基础数据结构和函数等 |--ggml.h |--ggml-alloc.c#内存分配管理 |--ggml-alloc.h |--llama.cpp#整个llama2的计算图构建和weight加载等 |--llama.h |--ggml-cuda.cu#cuda版本的llama2中的kernel实现与调用 |--ggml-cuda.h |--ggml-opencl.cpp#opencl版本的llama2中的kernel实现与调用 |--ggml-opencl.h |--...#其他
1.2 调用流程
当我们搭建完成环境,并对llama.cpp 进行编译后 在llama.cpp/build/bin/会生成一个main的可执行文件,根据README.md给的相关命令即可进行llama2的推理。大致梳理一下llama.cpp的调用执行流程:
首先,main这个可执行文件的源码对应于llama.cpp/examples/main/main.cpp,在main.cpp中会解析命令行的参数,如所用的模型文件,prompt信息等,之后进行一系列操作后,用一个llama_token_bos()token并调用了一次llama_eval()函数来对模型进行了一次warm up, 之后进入一个while循环进行模型的推理,期间会多次调用llama_eval()函数进行推理,直到不满足while条件。
llama_eval()函数的定义在llama.cpp/llama.cpp文件中,llama_eval()函数进一步会去调用llama_eval_internal()函数,llama_eval_internal()函数内部会根据预先的宏定义走不同的推理模式,比如GGML_USE_MPI、GGML_USE_MPI和其他模式,因为本文是以CUDA推理模式进行说明的,所以我们主要看该模式下的函数调用:主要有两个 llama_build_graph()和ggml_graph_compute_helper() 。这两个函数的功能分别是前者用于构建推理计算图 ,而后者则是根据计算图调用对应算子
llama_build_graph
llama_build_graph()函数接口,如下所示
staticstructggml_cgraph*llama_build_graph( llama_context&lctx,//llamacontext存放着一些模型信息,包括模型文件、超参数等 constllama_token*tokens,//需要去处理的tokens constfloat*embd,//embeddingsinput intn_tokens,//numberoftokens intn_past//已经处理的tokens数量 );
这其中整个llama 2的模型结构的推理计算图全在该函数内实现,代码太长了为了节省篇幅就不截取了,大家可以根据函数名找到对应的函数实现
ggml_graph_compute_helper
ggml_graph_compute_helper()函数内部主要会调用两个函数: ggml_graph_plan() 和 ggml_graph_compute() 。前者用于创建一个ggml_cplan结构体cplan,同时根据之前llama_build_graph()创建的计算图,对图中每个节点所对应的算子OP确定cplan中的成员值,之后返回cplan。后者根据llama_build_graph()创建的计算图和ggml_graph_plan()创建的cplan 进一步调用ggml_graph_compute_thread,这个函数再根据当前计算图节点信息进一步调用ggml_compute_forward
ggml_compute_forward
此函数会根据当前节点的信息调用具体的算子。当然根据不同的编译选项会使得算子有不同的调用:当定义了GGML_USE_CUBLAS,如果当前节点所对应的算子在CUDA平台有具体的实现就会调用它,否则就会调用CPU端的实现
ggml_compute_forward
ggml_cuda_compute_forward 就会调用具体的CUDA节点
ggml_cuda_compute_forward
另外,整个llama.cpp中一个很重要的结构体ggml_tensor,其定义如下
structggml_tensor{ enumggml_typetype;//数据类型FP32INT8等 enumggml_backendbackend;//后端CPU/GPU intn_dims;//几维度 int64_tne[GGML_MAX_DIMS];//numberofelements,这就是tensor的shape,不过它的存放方式是倒着的 //比如[batch_size,multi-head,seq_len,head-dim] //他的存储方式是ne[0]=head-dim,ne[1]=seq_len,ne[2]=multi-head,ne[3]=batch_size size_tnb[GGML_MAX_DIMS];//strideinbytes: //nb[0]=sizeof(type) //nb[1]=nb[0]*ne[0]+padding //nb[i]=nb[i-1]*ne[i-1] //computedata enumggml_opop; //opparams-allocatedasint32_tforalignment int32_top_params[GGML_MAX_OP_PARAMS/sizeof(int32_t)]; boolis_param; structggml_tensor*grad; structggml_tensor*src[GGML_MAX_SRC]; //performance intperf_runs; int64_tperf_cycles; int64_tperf_time_us; void*data; charname[GGML_MAX_NAME]; void*extra;//extrathingse.g.forggml-cuda.cu charpadding[4]; };
至此,llama.cpp 在推理llama 2时的一个主要调用逻辑,就算说完了,接下来,我们来看看本文的重点部分:llama 2 中每个Transformer Block的CUDA版本的算子调用及解析
2 逐算子解析
在之前Llama2 详解中我们说过,大模型的推理可以分为prompt和generation两个阶段,两个阶段在处理时的差异在于数据维度的差异,即prompt阶段是多token输入 input_tensor: [batch_size, seq_len, hidden_dim] ; 而generation阶段的输入则是 input_tensor: [batch_size, 1, hidden_dim] ,所以前者更多的计算算子是gemm,而后者更多的计算算子则是gemv 。
后文中为了方便说明具体的参数信息,本文以Llama-2 7B模型 batch_size =1 为例来说明llama.cpp 在推理时的tensor shape和其他参数信息
回顾一下,上图为Llama2 详解中我画的llama 2的模型结构图。根据模型结构,我们来看看llama.cpp的推理流程。如下图所示,为我通过Nsight Systems工具抓取的 在llama.cpp 选用CUDA作为推理后端时的算子调用和执行情况,其中黄色框为一次warmup,绿色框就是prompting阶段,红色框的多个块就是一次次的generation阶段。
相信大家也不难发现,通过Nsight Systems所统计的执行时间占比最大的kernel是dequantize_mul_mat_vec——简单解释一下:这是一个反量化矩阵向量乘法,只会在generation阶段调用。所以说大模型的推理,generation阶段占比更重,红色框中的一个小块即为生成一个token所调用kernel的时间,而随着你需要生成的token的数量增多,红色框的占比会越来越大。
那么接下来,我们就结合上述模型结构图和Nsight Systems 截图来一起看看llama 2推理时都会调用哪些CUDA算子,以及llama.cpp 对这些算子是如何实现的~
因为prompting和generation只是在tensor shape不一样,而算子实现的算法功能都是一致的。那么我们可以根据llama 2的模型结构图中将一个Transformer Block拆分为的两个块(Attention Block和FeedForward Block),然后逐一比较这两个块在提示(prompting)和生成(generation)阶段所调用的算子以及它们的实现。
2.1 Attention Block
通过对Nsight Systems Profile report文件放大后分析,可以得到Attention Block的上层算法流程以及其在prompting阶段和generation阶段所调用的CUDA算子,如下图所示。根据这一对比示意图,我们就来细看一下每个算子的功能以及具体的实现
2.1.1 rms_norm_f32
我们回忆一下RMS Norm的公式:
其中 为可学习的参数,推理时固定
#defineWARP_SIZE32 //callkernel staticvoidrms_norm_f32_cuda(constfloat*x,float*dst,constintncols,constintnrows,constfloateps,cudaStream_tstream){ GGML_ASSERT(ncols%WARP_SIZE==0); constdim3block_dims(WARP_SIZE,1,1);//(32,1,1) //所以调用的cuda的gridDim=(nrows,1,1),blockDim=(32,1,1) //也就是说一个block处理一个row的数据,即每32个线程处理一行数据,共计nrows行 rms_norm_f32<<>>(x,dst,ncols,eps); } //kernelcode static__global__voidrms_norm_f32(constfloat*x,float*dst,constintncols,constfloateps){ constintrow=blockIdx.x*blockDim.y+threadIdx.y; constinttid=threadIdx.x; floattmp=0.0f;//partialsumforthreadinwarp //一个线程求和(ncols/WARP_SIZE)个数据的x^2 for(intcol=tid;col< ncols; col += WARP_SIZE) { const float xi = x[row*ncols + col]; tmp += xi * xi; } // sum up partial sums // 一个线程束(32个线程)内的归约求和 #pragma unroll for (int mask = 16; mask >0;mask>>=1){ tmp+=__shfl_xor_sync(0xffffffff,tmp,mask,32); } constfloatmean=tmp/ncols;//mean(x^2) constfloatscale=rsqrtf(mean+eps);//1/根号mean //算完之后写回原数组 for(intcol=tid;col< ncols; col += WARP_SIZE) { dst[row*ncols + col] = scale * x[row*ncols + col]; } }
所以,rms_norm_f32这个kernel就是在计算RMS Norm的前一部分,之后再通过如下kernel mul_f32乘上,就得到了完整的RMS Norm。rms_norm_f32这个kernel 在prompting阶段处理的tensor shape 是[1, seq_len , 4096] ,nrows 等于seq_len,在generation阶段处理的tensor shape 则是[1, 1 , 4096] 。
batch_size =1 ,7B模型的 hidden_dim = 4096
#defineCUDA_MUL_BLOCK_SIZE256 //callkernel staticvoidmul_f32_cuda(constfloat*x,constfloat*y,float*dst,constintkx,constintky,cudaStream_tstream){ constintnum_blocks=(kx+CUDA_MUL_BLOCK_SIZE-1)/CUDA_MUL_BLOCK_SIZE; mul_f32<<>>(x,y,dst,kx,ky); } //kernel static__global__voidmul_f32(constfloat*x,constfloat*y,float*dst,constintkx,constintky){ constinti=blockDim.x*blockIdx.x+threadIdx.x; if(i>=kx){ return; } dst[i]=x[i]*y[i%ky]; }
mul_f32算子比较简单就是挨个元素乘上对应的,其实rms_norm_f32和mul_f32 可以合并成一个kernel,后续文章会推出一些kernel优化的解析会讲到。
2.1.2 Linear Layer
对比Llama 2模型结构可以发现,一个Transformer Block中总共有7个Linear层:生成Q、K、V的三个Linear、Attention Block中最后一个Linear和FeedForward Block中的3个Linear。虽然这些Linear层处理的tensor 的shape是不同的,但是在相同的阶段调用的算子都是同一个,所以可以举一反三。
此外,llama.cpp中涉及到量化推理的主要就是Linear层,前文提过本文先导知识之一就是模型量化,所谓模型量化就是将模型中的weight数据和input-tensor数据,通过量化算法将原始FP32类型逻辑等价地转换为int8以及更低bit数据,这样做的好处就是在对模型进行推理时能节省内存和计算加速的好处。模型量化算法有很多种,以常见的对称均匀量化为例,模型量化时都会对原始FP32数据在pre-tensor/pre-channel域计算得到一个scale,然后通过量化公式:将数据由FP32量化为INT-8(或更低bit)数据 。
这里解释一下:模型量化后计算速度的加快的主要原因在于:在同等带宽的情况下能一次向量化的load更多数据(比如原始load 1个FP32的时间 现在能load 4个int8的数据)
以llama.cpp 提供的LLaMA 2 7B chat 8bit模型为例,Llama 2中Linear层的weight数据就是int-8类型,更具体的说,Linear层中的weight数据是以如下结构体的形式保存的,其中d为前文中提到的量化算法中的scale,int8_t qs[QK8_0] 即为量化后的INT-8数据
#defineQK8_032 typedefstruct{ halfd;//delta量化的scale int8_tqs[QK8_0];//quants量化的weight数据 }block_q8_0;
这里的量化scale既不是以pre-tensor为单位也不是以pre-channel为单位,而是以32为单位,主要原因是因为CUDA 一个warp就是32个线程
Linear层在进行量化推理时可以选用两种方式:
反量化int-8的weight,之后将fp32的input-tensor与fp32的weight进行Linear层的运算
量化input-tensor,之后将int-8的input-tensor与int-8的weight进行Linear层的运算
接下来,我们就来看看llama.cpp对于这两种方式是如何实现的
dequantize Linear
首先,对于Linear层prompting阶段和generation阶段都会被调用,但是因为处理的tensor的shape不一样,所以在不同阶段执行时调用的kernel不一样,而在同一个阶段调用的kernel又是一样的,所以为了节省篇幅,后文在讲解时会挑选每个阶段的其中一个Linear层来进行说明。
以反量化的dequantize Linear推理时,在prompting阶段是使用dequantize_block+cublasSgemm实现的,其中前者是一个反量化kernel,将weight反量化为FP32 ,后者就是直接调库的gemm,没啥好说的。所以我们主要来看看generation阶段的实现。前面说过生成阶段处理的tensor shape相对于prompting阶段不同,在generation阶段 以生成Q K V的Linear层为例,其input tensor 's shape 是[batch_size, 1 , hidden_dim] ,而weight还是一个矩阵数据,所以此时llama.cpp会去调用矩阵向量乘法的kernel,具体而言就是 dequantize_mul_mat_vec, 如下图为Nsight 抓取的generation阶段生成QKV的三个Linear的调用情况
dequantize-linear
具体的核函数调用函数和kernel代码如下所示。这三个Linear 调用的都是dequantize_mul_mat_vec算子,girdDim=(1,4096,1) ,blockDim=(32,1,1) ,输入tensor shape是[1, 1, 4096],而weight shape则是[1, 4096 , 4096],所以CUDA kernel用了4096个block来处理整个gemv,每个block处理一行的weight * input tensor。
input tensor shape和weight shape依然是以Llama-2 7B模型,batch_size = 1 为例说明
又因为weight是以结构体的方式存储的32个weight数据共享一个scale数据,所以结构体的数量为(4096 * 4096 / 32)。kernel的具体写法在以下代码块中做了详细注释。
dequantize_mul_mat_vec的gridDim = {1,4096,1} , blockDim = {32,1,1},也就说对于[1,4096] * [4096,4096]的矩阵向量乘,一共用了4096个block来处理,每个block中32个线程,每个block处理中的线程处理一个[1,4096] * [1,4096]的逐元素乘后累和。
//callkernel #defineQK8_032 #defineQR8_01 staticvoiddequantize_mul_mat_vec_q8_0_cuda(constvoid*vx,constdfloat*y,float*dst,constintncols,constintnrows,cudaStream_tstream){ GGML_ASSERT(ncols%GGML_CUDA_DMMV_X==0); constintblock_num_y=(nrows+GGML_CUDA_MMV_Y-1)/GGML_CUDA_MMV_Y; constdim3block_nums(1,block_num_y,1);//(1,4096,1) constdim3block_dims(WARP_SIZE,GGML_CUDA_MMV_Y,1);//(32,1,1) dequantize_mul_mat_vec<< >>(vx,y,dst,ncols,nrows); } //kernelcode static__device____forceinline__voiddequantize_q8_0(constvoid*vx,constintib,constintiqs,dfloat2&v){ //因为此时的int8量化是采用的是均匀对称量化 //根据量化公式,反量化就是int8*scale constblock_q8_0*x=(constblock_q8_0*)vx; constdfloatd=x[ib].d;//scale v.x=x[ib].qs[iqs+0];//int8weight v.y=x[ib].qs[iqs+1];//int8weight #ifdefGGML_CUDA_F16 //FP16的情况 v=__hmul2(v,{d,d}); #else //FP32的情况 v.x*=d;//反量化 v.y*=d;//反量化 #endif//GGML_CUDA_F16 } //gridDim={1,4096,1},blockDim={32,1,1} template static__global__voiddequantize_mul_mat_vec(constvoid*__restrict__vx,constdfloat*__restrict__y,float*__restrict__dst,constintncols,constintnrows){ //qk=quantizedweightsperxblock //qr=numberofquantizedweightsperdatavalueinxblock constintrow=blockIdx.y*blockDim.y+threadIdx.y;//0-4095 if(row>=nrows){ return; } constinttid=threadIdx.x;//0-31 constintiter_stride=2*GGML_CUDA_DMMV_X;//2*32 constintvals_per_iter=iter_stride/WARP_SIZE;//2numquantizedvalsperthreadandiiter //单个线程,for循环的一次迭代所处理的数据量--2 constinty_offset=qr==1?1:qk/2;//1 //partialsumforeachthread #ifdefGGML_CUDA_F16 half2tmp={0.0f,0.0f};//twosumsforf16totakeadvantageofhalf2intrinsics #else floattmp=0.0f; #endif//GGML_CUDA_F16 //32个线程需要处理4096组数据的乘加 for(inti=0;i< ncols; i += iter_stride) { const int col = i + vals_per_iter*tid; //列坐标,因为一个线程一次for循环迭代处理两个数据,所以32个线程一次迭代可以处理64个数据 const int ib = (row*ncols + col)/qk; // x block index ,就是weight数据的第几个block结构体 const int iqs = (col%qk)/qr; // x quant index,当前列坐标所对应的weight数据block结构体内部的第几个索引 const int iybs = col - col%qk; // y block start index,与当前weight数据block 对应的input_tensor的起始index // processing >2valuesperiiterisfasterforfastGPUs //前面说过一个线程每次迭代都处理两个数据,向量化存取有效利用量化所节省的带宽 #pragmaunroll for(intj=0;j< vals_per_iter; j += 2) { // process 2 vals per j iter // dequantize // for qr = 2 the iqs needs to increase by 1 per j iter because 2 weights per data val dfloat2 v; //float2类型,就是两个float dequantize_kernel(vx, ib, iqs + j/qr, v); //反量化之后的数据存到v // matrix multiplication // for qr = 2 the y index needs to increase by 1 per j iter because of y_offset = qk/2 #ifdef GGML_CUDA_F16 tmp += __hmul2(v, { y[iybs + iqs + j/qr + 0], y[iybs + iqs + j/qr + y_offset] }); #else //两个数据分别相乘后相加 tmp += v.x * y[iybs + iqs + j/qr + 0]; tmp += v.y * y[iybs + iqs + j/qr + y_offset]; #endif // GGML_CUDA_F16 } } // sum up partial sums and write back result //对每个block中的tmp进行累和,即为每一行weight与input_tensor进行乘加后的结果 #pragma unroll for (int mask = 16; mask >0;mask>>=1){ tmp+=__shfl_xor_sync(0xffffffff,tmp,mask,32); } //当tid=0时再把每个block的结果写会结果 if(tid==0){ #ifdefGGML_CUDA_F16 dst[row]=tmp.x+tmp.y; #else dst[row]=tmp; #endif//GGML_CUDA_F16 } }
quantize Linear
Linear层的第二种调用方式就是对输入tensor做量化,之后再与int8的weight做int8的运算。同样,我们以generation阶段的生成QKV的三个Linear之一为例的实现进行说明。通过Nsight 抓取的kernel 调用情况可以发现,每个mul_mat_vec_q在被调用之前,都会有一个quantize_q8_1 ,quantize_q8_1用于对输入tensor进行量化,mul_mat_vec_q则是进行int8的矩阵向量乘法。前面说过此时的输入tensor shape是[1, 1, 4096],weight shape是[1, 4096 , 4096],其中weight的数据依然是采用block_q8_0这种结构体的方式存储。
quantize-linear
具体的kernel实现和调用如下
量化函数 ——quantize_q8_1
quantize_q8_1 kernel用于对数据进行int8的对称均匀量化,具体而言,此时就是对输入shape为[1,1,4096]的fp32数据进行量化,girdDim ={16,1,1} , blockDim={256 , 1, 1}
16 * 256 = 4096,实际就是一个线程量化一个数据
#defineQK8_132 typedefstruct{ half2ds;//ds.x=delta,ds.y=sum,这里的ds存了两个half第一个half是scale,第二half是sum int8_tqs[QK8_0];//quants,int8数据 }block_q8_1; static__global__voidquantize_q8_1(constfloat*__restrict__x,void*__restrict__vy,constintkx,constintkx_padded){ constintix=blockDim.x*blockIdx.x+threadIdx.x;//0-4096 if(ix>=kx_padded){ return; } constintiy=blockDim.y*blockIdx.y+threadIdx.y;//0 constinti_padded=iy*kx_padded+ix;//ix block_q8_1*y=(block_q8_1*)vy; constintib=i_padded/QK8_1;//blockindex因为结构体数据是以32为一组,所以ib计算得到当前数据所在结构体block的index constintiqs=i_padded%QK8_1;//quantindexiqs计算的就是当前数据所在结构体内部的index constfloatxi=ix< kx ? x[iy*kx + ix] : 0.0f; //防止超出 float amax = fabsf(xi); // 当前数据的绝对值 float sum = xi; //一个block内部既做归约求和也做归约求最大值 #pragma unroll for (int mask = 16; mask >0;mask>>=1){ amax=fmaxf(amax,__shfl_xor_sync(0xffffffff,amax,mask,32)); sum+=__shfl_xor_sync(0xffffffff,sum,mask,32); } //套用均匀对称量化的量化公式 //q=round(clip(r_i/scale,Q_{min},Q_{max})) //scale=fmax-fmin/qmax-qmin constfloatd=amax/127; constint8_tq=amax==0.0f?0:roundf(xi/d); //存储量化后的值 y[ib].qs[iqs]=q; if(iqs>0){ return; } //只用iqs==0的线程将scale和sum写回 y[ib].ds.x=d; y[ib].ds.y=sum; }
量化的矩阵向量乘——mul_mat_vec_q
对input_tensor调用了量化函数之后,再调用mul_mat_vec_q执行int8的输入与int8的weight之间的矩阵向量乘法运算,mul_mat_vec_q的gridDim = {1,4096,1} blockDim ={32,1,1},所以同样是每个block处理一行的weight与input_tensor做乘加运算,一共4096行。每个block内部32个线程又处理4096个数据的乘加运算
#defineVDR_Q8_0_Q8_1_MMVQ2 staticvoidmul_mat_vec_q8_0_q8_1_cuda(constvoid*vx,constvoid*vy,float*dst,constintncols,constintnrows,cudaStream_tstream){ GGML_ASSERT(ncols%QK8_0==0); constintblock_num_y=(nrows+GGML_CUDA_MMV_Y-1)/GGML_CUDA_MMV_Y; constdim3block_nums(1,block_num_y,1); constdim3block_dims(WARP_SIZE,GGML_CUDA_MMV_Y,1); //QK8_0=32,QI8_0=8 mul_mat_vec_q<< >>(vx,vy,dst,ncols,nrows); } template static__device____forceinline__floatvec_dot_q8_0_q8_1_impl( constint*v,constint*u,constfloat&d8_0,constfloat&d8_1){ #if__CUDA_ARCH__>=MIN_CC_DP4A//lowestcomputecapabilityforintegerintrinsics intsumi=0; #pragmaunroll for(inti=0;i< vdr; ++i) { // SIMD dot product of quantized values sumi = __dp4a(v[i], u[i], sumi); } return d8_0*d8_1 * sumi; #else assert(false); return 0.0f; // only to satisfy the compiler #endif // __CUDA_ARCH__ >=MIN_CC_DP4A } static__device____forceinline__floatvec_dot_q8_0_q8_1( constvoid*__restrict__vbq,constblock_q8_1*__restrict__bq8_1,constint&iqs){ constblock_q8_0*bq8_0=(constblock_q8_0*)vbq; intv[VDR_Q8_0_Q8_1_MMVQ]; intu[VDR_Q8_0_Q8_1_MMVQ]; #pragmaunroll for(inti=0;i< VDR_Q8_0_Q8_1_MMVQ; ++i) { v[i] = get_int_from_int8(bq8_0->qs,iqs+i);//? u[i]=get_int_from_int8_aligned(bq8_1->qs,iqs+i); } returnvec_dot_q8_0_q8_1_impl (v,u,bq8_0->d,bq8_1->ds.x); } //gridDim={1,4096,1}blockDim={32,1,1} //qk=32,qi=8,block_q_t=block_q8_0,vdr=2,vec_dot_q_cuda=vec_dot_q8_0_q8_1 template static__global__voidmul_mat_vec_q(constvoid*__restrict__vx,constvoid*__restrict__vy,float*__restrict__dst,constintncols,constintnrows){ constintrow=blockIdx.y*blockDim.y+threadIdx.y;//theindexofrow if(row>=nrows){ return; } constintblocks_per_row=ncols/qk;//4096/32=128一行数据共有128个block_q8_0的结构体 constintblocks_per_warp=vdr*WARP_SIZE/qi;//2*32/8=8一个warp一次处理8个block_q8_0的结构体 //所以,每轮迭代4个线程处理一个block_q8_0的结构体 //所以,每轮迭代每个线程处理8个int8数据 //partialsumforeachthread floattmp=0.0f; //block_q_t=block_q8_0 constblock_q_t*x=(constblock_q_t*)vx;//weight所对应的结构体指针数据 constblock_q8_1*y=(constblock_q8_1*)vy;//量化input_tensor的结构体指针 //根据之前的关系,所以每个线程需要迭代128/8=16次 for(inti=0;i< blocks_per_row; i += blocks_per_warp) { //weight数据 结构体指针block的索引 //row*blocks_per_row是当前row的block index ,i, const int ibx = row*blocks_per_row + i + threadIdx.x / (qi/vdr); // x block index //input_tensor数据 结构体指针block的索引,是与weight数据对齐的 const int iby = (i + threadIdx.x / (qi/vdr)) * (qk/QK8_1); // y block index that aligns with ibx //iqs = [0 ,2,4,6] const int iqs = vdr * (threadIdx.x % (qi/vdr)); // x block quant index when casting the quants to int //按照之前的说法,应该是一个线程处理8个数据,但是感觉这里的iqs应该没有办法覆盖到8个数据吧? //大家能解答我的疑惑,还请不吝赐教 tmp += vec_dot_q_cuda(&x[ibx], &y[iby], iqs); } // sum up partial sums and write back result //对一个block内部求和 #pragma unroll for (int mask = 16; mask >0;mask>>=1){ tmp+=__shfl_xor_sync(0xffffffff,tmp,mask,32); } //结果写回 if(threadIdx.x==0){ dst[row]=tmp; } }
2.2.3 rope_f32
前文Llama 2详解 对rope 这种位置编码的方式说明过,我们这里在回忆一下rope的公式
对于rope的处理,只会对Q和K进行位置编码,通过Nsight 抓取的kernel调用也能发现
rope
//(1,32,1)(512,1,1) static__global__voidrope_f32(constfloat*x,float*dst,constintncols,constfloatp0, constfloatp_delta,constintp_delta_rows,constfloattheta_scale){ constintcol=2*(blockDim.x*blockIdx.x+threadIdx.x);//0-1022 //ncols=128 if(col>=ncols){ return; } //做了截断所以col的值域为{0,2,4...126} //其实这里不是太懂为什么要512个线程处理,然后又做截断,实际每个block只有64个线程进行了后续运算 constintrow=blockDim.y*blockIdx.y+threadIdx.y;//0-31 constinti=row*ncols+col;//数据的索引 //p0=n_past就是在生成当前token之前已处理的token长度 //p_delta=1.0 //theta_scale=0.865964 //p_delta_rows=32 constfloattheta=(p0+p_delta*(row/p_delta_rows))*powf(theta_scale,col/2); constfloatsin_theta=sinf(theta); constfloatcos_theta=cosf(theta); constfloatx0=x[i+0]; constfloatx1=x[i+1]; //这里用了32个block处理32个头的rope计算 //其中每个block中又只有64 dst[i+0]=x0*cos_theta-x1*sin_theta; dst[i+1]=x0*sin_theta+x1*cos_theta; }
2.1.4 Copy Kernel
我们之前说过,无论在prompting阶段还是generation阶段,生成的K和V都是要缓存下来的,区别在于prompting阶段是将提示token对应的KV直接写入,而generation阶段则是将单个token对应的KV追加至KV cache。在对K V缓存时,可以直接对FP32数据进行缓存,也可以通过将FP32数据转换为FP16之后再进行缓存,后者虽然会损失一定的精度,但是节省了显存。如下两个kernel用于对数据类型进转换
llama.cpp 中会提前为KV cache分配显存空间,然后prompting阶段和generation阶段生成的KV都会写入。如当最大context大小设置为512时,以FP32为例,每一个Transformer Block会分别给K cache 和 V cache分配512 * 4096 * 4 = 8MB 的存储空间,KV cache一共16MB,那么32个Transformer Block一共512 MB的 KV cache空间。如果使用FP16缓存,则KV cache空间减半
//fp32->fp32 static__device__voidcpy_1_f32_f32(constchar*cxi,char*cdsti){ constfloat*xi=(constfloat*)cxi; float*dsti=(float*)cdsti; *dsti=*xi; } //fp32->fp16 static__device__voidcpy_1_f32_f16(constchar*cxi,char*cdsti){ constfloat*xi=(constfloat*)cxi; half*dsti=(half*)cdsti; *dsti=__float2half(*xi);//通过内置函数将数据从fp32转换为fp16 }
cpy_f32_f16就是实际的显存拷贝核函数,通过上述的两个kernel的调用将数据拷贝至fp32或fp16。
templatestatic__global__voidcpy_f32_f16(constchar*cx,char*cdst,constintne, constintne00,constintne01,constintnb00,constintnb01,constintnb02, constintne10,constintne11,constintnb10,constintnb11,constintnb12){ constinti=blockDim.x*blockIdx.x+threadIdx.x; if(i>=ne){ return; } //determineindicesi02/i12,i01/i11,i00/i10asafunctionofindexiofflattenedtensor //thencombinethoseindiceswiththecorrespondingbyteoffsetstogetthetotaloffsets //结合之前的ggml_tensor的ne和nb的定义 //nb[i]=nb[i-1]*ne[i-1],nb[0]=sizeof(type) constinti02=i/(ne00*ne01);//theindexofne02 constinti01=(i-i02*ne01*ne00)/ne00;//theindexofne01 constinti00=i-i02*ne01*ne00-i01*ne00;//theindexofne00 constintx_offset=i00*nb00+i01*nb01+i02*nb02;//计算偏移 constinti12=i/(ne10*ne11);//dst同上 constinti11=(i-i12*ne10*ne11)/ne10; constinti10=i-i12*ne10*ne11-i11*ne10; constintdst_offset=i10*nb10+i11*nb11+i12*nb12; cpy_1(cx+x_offset,cdst+dst_offset);//将cx[x_offset]转换为fp16写到cdst[dst_offset] }
另外,注意一点,一旦对tensor做了view或者reshape之类的操作使得内存排布不在连续,nb[i] = nb[i-1] * ne[i-1]这个条件可能就不满足了
2.1.5 Multi-Head-Attention
MHA 是整个Transformer Block中最核心的Kernel了,Attention的计算公式如下
在前文中我们也说过Llama 2 会采用一种分组共享KV cache的Attention计算GQA,但是因为我们是以7B模型为例进行说明的,7B模型并没有采用GQA,依然是采用的MHA,可参考Llama repo。所以本文还是以MHA为例进行说明此处的kernel调用情况
对于Q*K 和 Attention Score * V这两个乘法操作,在prompting阶段和generation阶段所调用的算子并不一样,在prompting阶段因为QKV三个都是多个单词所对应的tensor,即shape为[1, 32, seq_len , 128] ,所以prompting阶段在处理时依然是直接调用的cublasSgemm实现。所以我们还是主要来看看generation阶段所调用的算子,在generation阶段 Q的shape为[1, 32, 1 , 128] ,Q需要与新生成的K V,以及之前推理缓存下来的KV cache一起做self-attention运算
上图为generation阶段Multi-Head-Attention的算子调用,主要包括5个kernel
Q*K 的算子——mul_mat_p021_f16_f32
generation阶段此时Q的shape是[1, 32,1,128] , K cache的shape为[1,32,seq_len,128],此处的seq_len就是当前处理的tokens的数量,会随着generation阶段,逐渐加1。如下kernel
这里说一句,这里说的Q和K的shape只是方便理解Attention的计算过程,实际Q和K在物理内存上可能不是按shape排列的方式存储的,比如这里的K cache,内存存放的次序还是[1, seq_len, 4096]
以下kernel调用时的gridDim = {1,seq_len,32} ,blockDim = {32,1,1},也就是说一个block处理一个头中的Q与K cache中的一行K进行乘加运算
//gridDim={1,seq_len,32},blockDim={32,1,1} static__global__voidmul_mat_p021_f16_f32( constvoid*__restrict__vx,constfloat*__restrict__y,float*__restrict__dst, constintncols_x,constintnrows_x,constintnchannels_x,constintnchannels_y){ consthalf*x=(consthalf*)vx;//vx就是Kcache constintrow_x=blockDim.y*blockIdx.y+threadIdx.y;//这个维度是seq_len的索引,[0,..,seq_len-1] constintchannel=blockDim.z*blockIdx.z+threadIdx.z;//这个维度是multihead的索引[0,1,2..,31] constintchannel_x=channel/(nchannels_y/nchannels_x);//这个是对于GQA的时候用的,就是Q分组共享Kcache //此处我们是以7B模型为例,依然是MHA constintnrows_y=ncols_x;//128 constintnrows_dst=nrows_x;//seq_len constintrow_dst=row_x;//[0,..,seq_len-1] floattmp=0.0f; //因为一个block(32个线程)处理128个数据,所以每个线程for循环迭代次数为128/32 for(intcol_x0=0;col_x0< ncols_x; col_x0 += blockDim.x) { const int col_x = col_x0 + threadIdx.x; //计算列索引[0-127] if (col_x >=ncols_x){ break; } //xistransposedandpermuted //计算Kcache的index //前面说过Kcache在内存存的次序还是[seq_len,multihead,head_dim] //所以这里的index的计算方式理解一下 constintix=row_x*nchannels_x*ncols_x+channel_x*ncols_x+col_x; //Kcache不是为了节省内存用的FP16存着嘛,所以用一个__half2float内置函数将FP16转换为FP32 constfloatxi=__half2float(x[ix]); //Kcache的列索引等于Q的列索引 //名字叫row_y但还是列索引,因为Q的内存排布还是[32,128] constintrow_y=col_x; //yisnottransposedbutpermuted constintiy=channel*nrows_y+row_y;//计算Q的全局index tmp+=xi*y[iy];//乘后累和到tmp } //dstisnottransposedandnotpermuted //dst的shape为[32,1,seq_len],所以内存排布为[32,seq_len] //所以dst的index计算方式如下 constintidst=channel*nrows_dst+row_dst; //sumuppartialsumsandwritebackresult //又是熟悉的block内求和 #pragmaunroll for(intmask=16;mask>0;mask>>=1){ tmp+=__shfl_xor_sync(0xffffffff,tmp,mask,32); } if(threadIdx.x==0){ dst[idst]=tmp;//写回dst } }
除以 —— scale_f32
Attention(Q,K,V)公式中的Q乘K之后的除以,这个kernel没啥好说的,按元素乘
static__global__voidscale_f32(constfloat*x,float*dst,constfloatscale,constintk){ constinti=blockDim.x*blockIdx.x+threadIdx.x; if(i>=k){ return; } dst[i]=scale*x[i]; }
attention mask —— diag_mask_inf_f32
对于Attention中的mask操作,我们看下面这个图,一目了然,在原生Transformer Decode阶段,加入mask的是为了防止前面token的Q与后面token的K计算得到一个较高的Attention Score,所以通过一个上三角(且上三角元素全为-INF)矩阵,来保证句子中单词之间的时序性。
attention-mask
如下kernel就是实现mask操作的,也是逐元素,根据其坐标来判断是否需要mask。不过这里多说一句,在通过Nsight抓取的MHA部分的kernel调用情况的截图中可以看到,generation阶段也调用了diag_mask_inf_f32这个kernel,实际是不需要调用的。因为生成阶段生成的Q就是最新的单词所对应的Q,他与KV cache中的每个KV 计算的Attention Score都不会mask, mask的操作只需要存在于prompting阶段中,想来这里也是因为llama.cpp的作者为了省事~
这里不太明白为什么generation阶段不需要mask的可以移步至B站CodeLearner
static__global__voiddiag_mask_inf_f32(constfloat*x,float*dst,constintncols,constintrows_per_channel,constintn_past){ constintcol=blockDim.x*blockIdx.x+threadIdx.x; constintrow=blockDim.y*blockIdx.y+threadIdx.y; if(col>=ncols){ return; } constinti=row*ncols+col; //dst[i]=col>n_past+row?-INFINITY:x[i]; dst[i]=x[i]-(col>n_past+row%rows_per_channel)*INT_MAX;//equivalentwithinroundingerrorbutslightlyfasteronGPU }
Attention Score * V 的算子 mul_mat_vec_nc_f16_f32
generation阶段Attention Score 的shape为[1, 32 , 1, seq_len],V的shape为[1, 32 ,seq_len,128] . mul_mat_vec_nc_f16_f32算子调用的gridDim={1,128,32} ,blockDim={32,1,1} ,所以 blockDim.z维度对应于multihead=32 维度,blockDim.y维度对应于head_dim=128维度,然后每个block中32个线程用来处理每个seq_len长度序列的乘加。
//gridDim={1,128,32},blockDim={32,1,1} static__global__voidmul_mat_vec_nc_f16_f32(//nc==non-contiguous constvoid*__restrict__vx,constfloat*__restrict__y,float*__restrict__dst,constintncols_x,constintnrows_x, constintrow_stride_x,constintchannel_stride_x,constintchannel_x_divisor){ //ncols_x=seq_len,nrows_x=128,row_stride_x=512,channel_stride_x=65536,channel_x_divisor=1 consthalf*x=(consthalf*)vx;//Vcache存储时使用的FP16 constintrow_x=blockDim.y*blockIdx.y+threadIdx.y;//indexofhead_dim->0-127 constintchannel=blockDim.z*blockIdx.z+threadIdx.z;//indexofmulti-head->0-31 constintchannel_x=channel/channel_x_divisor;//channel/1 constintnrows_y=ncols_x;//seq_len constintnrows_dst=nrows_x;//128 constintrow_dst=row_x;//indexofhead_dim->0-127 //AttentionScore*V最终的shape为[1,32,1,128] //所以idst=(indexofmulti-head)*(128)+(indexofhead_dim) constintidst=channel*nrows_dst+row_dst; floattmp=0.0f; //循环处理seq_len序列,每个线程处理seq_len/blockDim.x个数 for(intcol_x0=0;col_x0< ncols_x; col_x0 += blockDim.x) { const int col_x = col_x0 + threadIdx.x; if (col_x >=ncols_x){ break; } //Vcache的index constintix=channel_x*channel_stride_x+row_x*row_stride_x+col_x; //fp16转fp32 constfloatxi=__half2float(x[ix]); //AttentionScoreindex constintrow_y=col_x; constintiy=channel*nrows_y+row_y; tmp+=xi*y[iy];//乘加 } //sumuppartialsumsandwritebackresult //还是熟悉的block内部求和 #pragmaunroll for(intmask=16;mask>0;mask>>=1){ tmp+=__shfl_xor_sync(0xffffffff,tmp,mask,32); } //结果写回 if(threadIdx.x==0){ dst[idst]=tmp; } }
2.1.6 add_f32
add_f32 用于残差连接一下输入tensor 与Attention Block的输出,kernel的实现没啥好说的,就是最简单向量相加
static__global__voidadd_f32(constfloat*x,constfloat*y,float*dst,constintkx,constintky){ constinti=blockDim.x*blockIdx.x+threadIdx.x; if(i>=kx){ return; } dst[i]=x[i]+y[i%ky]; }
输入tensor shape为[1,1,4096] ,Attention Block的输出为[1,1,4096] 。在FeedForward Block最后也是同样会调用add_f32 将FeedForward Block的输入连残差连接到输出,所调用的kernel为同一个
2.2 FeedForward Block
FeedForward Block 上层算法流程以及其在prompting阶段和generation阶段所调用的CUDA算子,如下图所示。整个过程中主要的就是几个Linear层,在前面的2.1.2节中详细介绍过了,所以这里就不过多赘述了~
2.2.1 silu_f32
FeedForward Block中在之前没有出现过的kenrel就是silu_f32这个激活函数kernel。同样,我们先回顾一下SiLU函数的公式
static__global__voidsilu_f32(constfloat*x,float*dst,constintk){ constinti=blockDim.x*blockIdx.x+threadIdx.x; if(i>=k){ return; } //silu公式 dst[i]=x[i]/(1.0f+expf(-x[i])); }
整个Kernel在调用时blocksize 在prompting阶段和generation阶段的值不一样,因为FeedForward Block中前两个Linear层的输出尺寸是11008 ,所以在prompting阶段需要prompting_length * 11008 个线程来处理prompting_length * 11008 个数据,而在generation阶段则需要11008 个线程来处理11008 个数据。所以如下图所示,为generation阶段的调用silu的Nsight截图,该kernel用了43个block,每个block 256个线程,= 43 * 256。prompting阶段类比。
silu
至此就算把Llama 2 中完整的单个Tranformer Block中的所有llama.cpp调用的CUDA Kernel 说明完啦~
审核编辑:刘清
-
RMS
+关注
关注
2文章
137浏览量
35751 -
CUDA
+关注
关注
0文章
121浏览量
13600
原文标题:llama.cpp源码解析
文章出处:【微信号:GiantPandaCV,微信公众号:GiantPandaCV】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论