这是一篇关于图像分割损失函数的总结,具体包括:
Binary Cross Entropy
Weighted Cross Entropy
Balanced Cross Entropy
Dice Loss
Focal loss
Tversky loss
Focal Tversky loss
log-cosh dice loss (本文提出的新损失函数)
代码地址:https://github.com/shruti-jadon/Semantic-Segmentation-Loss-Functions
项目推荐:https://github.com/JunMa11/SegLoss
图像分割一直是一个活跃的研究领域,因为它有可能修复医疗领域的漏洞,并帮助大众。在过去的5年里,各种论文提出了不同的目标损失函数,用于不同的情况下,如偏差数据,稀疏分割等。在本文中,总结了大多数广泛用于图像分割的损失函数,并列出了它们可以帮助模型更快速、更好的收敛模型的情况。此外,本文还介绍了一种新的log-cosh dice损失函数,并将其在NBFS skull-stripping数据集上与广泛使用的损失函数进行了性能比较。某些损失函数在所有数据集上都表现良好,在未知分布数据集上可以作为一个很好的选择。
简介
深度学习彻底改变了从软件到制造业的各个行业。深度学习在医学界的应用也十分广泛,例如使用U-Net进行肿瘤分割、使用SegNet进行癌症检测等。在这些应用中,图像分割是至关重要的,分割后的图像除了告诉我们存在某种疾病外,还展示了它到底存在于何处,这为实现自动检测CT扫描中的病变等功能提供基础保障。
图像分割可以定义为像素级别的分类任务。图像由各种像素组成,这些像素组合在一起定义了图像中的不同元素,因此将这些像素分类为一类元素的方法称为语义图像分割。在设计基于复杂图像分割的深度学习架构时,通常会遇到了一个至关重要的选择,即选择哪个损失/目标函数,因为它们会激发算法的学习过程。损失函数的选择对于任何架构学习正确的目标都是至关重要的,因此自2012年以来,各种研究人员开始设计针对特定领域的损失函数,以为其数据集获得更好的结果。
在本文中,总结了15种基于图像分割的损失函数。被证明可以在不同领域提供最新技术成果。这些损失函数可大致分为4类:基于分布的损失函数,基于区域的损失函数,基于边界的损失函数和基于复合的损失函数(Distribution-based,Region-based, Boundary-based, and Compounded)。
本文还讨论了确定哪种目标/损失函数在场景中可能有用的条件。除此之外,还提出了一种新的log-cosh dice损失函数用于图像语义分割。为了展示其效率,还比较了NBFS头骨剥离数据集上所有损失函数的性能。
Distribution-based loss
1. Binary Cross-Entropy:二进制交叉熵损失函数
交叉熵定义为对给定随机变量或事件集的两个概率分布之间的差异的度量。它被广泛用于分类任务,并且由于分割是像素级分类,因此效果很好。在多分类任务中,经常采用 softmax 激活函数+交叉熵损失函数,因为交叉熵描述了两个概率分布的差异,然而神经网络输出的是向量,并不是概率分布的形式。所以需要 softmax激活函数将一个向量进行“归一化”成概率分布的形式,再采用交叉熵损失函数计算 loss。
交叉熵损失函数可以用在大多数语义分割场景中,但它有一个明显的缺点:当图像分割任务只需要分割前景和背景两种情况。当前景像素的数量远远小于背景像素的数量时,即的数量远大于的数量,损失函数中的成分就会占据主导,使得模型严重偏向背景,导致效果不好。
#二值交叉熵,这里输入要经过sigmoid处理 importtorch importtorch.nnasnn importtorch.nn.functionalasF nn.BCELoss(F.sigmoid(input),target) #多分类交叉熵,用这个loss前面不需要加Softmax层 nn.CrossEntropyLoss(input,target)
2、Weighted Binary Cross-Entropy加权交叉熵损失函数
classWeightedCrossEntropyLoss(torch.nn.CrossEntropyLoss): """ NetworkhastohaveNONONLINEARITY! """ def__init__(self,weight=None): super(WeightedCrossEntropyLoss,self).__init__() self.weight=weight defforward(self,inp,target): target=target.long() num_classes=inp.size()[1] i0=1 i1=2 whilei1< len(inp.shape): # this is ugly but torch only allows to transpose two axes at once inp = inp.transpose(i0, i1) i0 += 1 i1 += 1 inp = inp.contiguous() inp = inp.view(-1, num_classes) target = target.view(-1,) wce_loss = torch.nn.CrossEntropyLoss(weight=self.weight) return wce_loss(inp, target)
3、Balanced Cross-Entropy平衡交叉熵损失函数
与加权交叉熵损失函数类似,但平衡交叉熵损失函数对负样本也进行加权。
4、Focal Loss
Focal loss是在目标检测领域提出来的。其目的是关注难例(也就是给难分类的样本较大的权重)。对于正样本,使预测概率大的样本(简单样本)得到的loss变小,而预测概率小的样本(难例)loss变得大,从而加强对难例的关注度。但引入了额外参数,增加了调参难度。
classFocalLoss(nn.Module): """ copyfrom:https://github.com/Hsuxu/Loss_ToolBox-PyTorch/blob/master/FocalLoss/FocalLoss.py ThisisaimplementationofFocalLosswithsmoothlabelcrossentropysupportedwhichisproposedin 'FocalLossforDenseObjectDetection.(https://arxiv.org/abs/1708.02002)' Focal_Loss=-1*alpha*(1-pt)*log(pt) :paramnum_class: :paramalpha:(tensor)3Dor4Dthescalarfactorforthiscriterion :paramgamma:(float,double)gamma>0reducestherelativelossforwell-classifiedexamples(p>0.5)puttingmore focusonhardmisclassifiedexample :paramsmooth:(float,double)smoothvaluewhencrossentropy :parambalance_index:(int)balanceclassindex,shouldbespecificwhenalphaisfloat :paramsize_average:(bool,optional)Bydefault,thelossesareaveragedovereachlosselementinthebatch. """ def__init__(self,apply_nonlin=None,alpha=None,gamma=2,balance_index=0,smooth=1e-5,size_average=True): super(FocalLoss,self).__init__() self.apply_nonlin=apply_nonlin self.alpha=alpha self.gamma=gamma self.balance_index=balance_index self.smooth=smooth self.size_average=size_average ifself.smoothisnotNone: ifself.smooth< 0 or self.smooth >1.0: raiseValueError('smoothvalueshouldbein[0,1]') defforward(self,logit,target): ifself.apply_nonlinisnotNone: logit=self.apply_nonlin(logit) num_class=logit.shape[1] iflogit.dim()>2: #N,C,d1,d2->N,C,m(m=d1*d2*...) logit=logit.view(logit.size(0),logit.size(1),-1) logit=logit.permute(0,2,1).contiguous() logit=logit.view(-1,logit.size(-1)) target=torch.squeeze(target,1) target=target.view(-1,1) #print(logit.shape,target.shape) # alpha=self.alpha ifalphaisNone: alpha=torch.ones(num_class,1) elifisinstance(alpha,(list,np.ndarray)): assertlen(alpha)==num_class alpha=torch.FloatTensor(alpha).view(num_class,1) alpha=alpha/alpha.sum() elifisinstance(alpha,float): alpha=torch.ones(num_class,1) alpha=alpha*(1-self.alpha) alpha[self.balance_index]=self.alpha else: raiseTypeError('Notsupportalphatype') ifalpha.device!=logit.device: alpha=alpha.to(logit.device) idx=target.cpu().long() one_hot_key=torch.FloatTensor(target.size(0),num_class).zero_() one_hot_key=one_hot_key.scatter_(1,idx,1) ifone_hot_key.device!=logit.device: one_hot_key=one_hot_key.to(logit.device) ifself.smooth: one_hot_key=torch.clamp( one_hot_key,self.smooth/(num_class-1),1.0-self.smooth) pt=(one_hot_key*logit).sum(1)+self.smooth logpt=pt.log() gamma=self.gamma alpha=alpha[idx] alpha=torch.squeeze(alpha) loss=-1*alpha*torch.pow((1-pt),gamma)*logpt ifself.size_average: loss=loss.mean() else: loss=loss.sum() returnloss
5、Distance map derived loss penalty term距离图得出的损失惩罚项
可以将距离图定义为ground truth与预测图之间的距离(欧几里得距离、绝对距离等)。合并映射的方法有2种,一种是创建神经网络架构,在该算法中有一个用于分割的重建head,或者将其引入损失函数。遵循相同的理论,可以从GT mask得出的距离图,并创建了一个基于惩罚的自定义损失函数。使用这种方法,可以很容易地将网络引导到难以分割的边界区域。损失函数定义为:
classDisPenalizedCE(torch.nn.Module): """ Onlyforbinary3Dsegmentation NetworkhastohaveNONONLINEARITY! """ defforward(self,inp,target): #print(inp.shape,target.shape)#(batch,2,xyz),(batch,2,xyz) #computedistancemapofgroundtruth withtorch.no_grad(): dist=compute_edts_forPenalizedLoss(target.cpu().numpy()>0.5)+1.0 dist=torch.from_numpy(dist) ifdist.device!=inp.device: dist=dist.to(inp.device).type(torch.float32) dist=dist.view(-1,) target=target.long() num_classes=inp.size()[1] i0=1 i1=2 whilei1< len(inp.shape): # this is ugly but torch only allows to transpose two axes at once inp = inp.transpose(i0, i1) i0 += 1 i1 += 1 inp = inp.contiguous() inp = inp.view(-1, num_classes) log_sm = torch.nn.LogSoftmax(dim=1) inp_logs = log_sm(inp) target = target.view(-1,) # loss = nll_loss(inp_logs, target) loss = -inp_logs[range(target.shape[0]), target] # print(loss.type(), dist.type()) weighted_loss = loss*dist return loss.mean()
Region-based loss
1、Dice Loss
Dice系数是计算机视觉界广泛使用的度量标准,用于计算两个图像之间的相似度。在2016年的时候,它也被改编为损失函数,称为Dice损失。
defget_tp_fp_fn(net_output,gt,axes=None,mask=None,square=False): """ net_outputmustbe(b,c,x,y(,z))) gtmustbealabelmap(shape(b,1,x,y(,z))ORshape(b,x,y(,z)))oronehotencoding(b,c,x,y(,z)) ifmaskisprovideditmusthaveshape(b,1,x,y(,z))) :paramnet_output: :paramgt: :paramaxes: :parammask:maskmustbe1forvalidpixelsand0forinvalidpixels :paramsquare:ifTruethenfp,tpandfnwillbesquaredbeforesummation :return: """ ifaxesisNone: axes=tuple(range(2,len(net_output.size()))) shp_x=net_output.shape shp_y=gt.shape withtorch.no_grad(): iflen(shp_x)!=len(shp_y): gt=gt.view((shp_y[0],1,*shp_y[1:])) ifall([i==jfori,jinzip(net_output.shape,gt.shape)]): #ifthisisthecasethengtisprobablyalreadyaonehotencoding y_onehot=gt else: gt=gt.long() y_onehot=torch.zeros(shp_x) ifnet_output.device.type=="cuda": y_onehot=y_onehot.cuda(net_output.device.index) y_onehot.scatter_(1,gt,1) tp=net_output*y_onehot fp=net_output*(1-y_onehot) fn=(1-net_output)*y_onehot ifmaskisnotNone: tp=torch.stack(tuple(x_i*mask[:,0]forx_iintorch.unbind(tp,dim=1)),dim=1) fp=torch.stack(tuple(x_i*mask[:,0]forx_iintorch.unbind(fp,dim=1)),dim=1) fn=torch.stack(tuple(x_i*mask[:,0]forx_iintorch.unbind(fn,dim=1)),dim=1) ifsquare: tp=tp**2 fp=fp**2 fn=fn**2 tp=sum_tensor(tp,axes,keepdim=False) fp=sum_tensor(fp,axes,keepdim=False) fn=sum_tensor(fn,axes,keepdim=False) returntp,fp,fn classSoftDiceLoss(nn.Module): def__init__(self,apply_nonlin=None,batch_dice=False,do_bg=True,smooth=1., square=False): """ paper:https://arxiv.org/pdf/1606.04797.pdf """ super(SoftDiceLoss,self).__init__() self.square=square self.do_bg=do_bg self.batch_dice=batch_dice self.apply_nonlin=apply_nonlin self.smooth=smooth defforward(self,x,y,loss_mask=None): shp_x=x.shape ifself.batch_dice: axes=[0]+list(range(2,len(shp_x))) else: axes=list(range(2,len(shp_x))) ifself.apply_nonlinisnotNone: x=self.apply_nonlin(x) tp,fp,fn=get_tp_fp_fn(x,y,axes,loss_mask,self.square) dc=(2*tp+self.smooth)/(2*tp+fp+fn+self.smooth) ifnotself.do_bg: ifself.batch_dice: dc=dc[1:] else: dc=dc[:,1:] dc=dc.mean() return-dc
2、Tversky Loss
Tversky系数是Dice系数和 Jaccard 系数的一种推广。当设置α=β=0.5,此时Tversky系数就是Dice系数。而当设置α=β=1时,此时Tversky系数就是Jaccard系数。α和β分别控制假阴性和假阳性。通过调整α和β,可以控制假阳性和假阴性之间的平衡。
classTverskyLoss(nn.Module): def__init__(self,apply_nonlin=None,batch_dice=False,do_bg=True,smooth=1., square=False): """ paper:https://arxiv.org/pdf/1706.05721.pdf """ super(TverskyLoss,self).__init__() self.square=square self.do_bg=do_bg self.batch_dice=batch_dice self.apply_nonlin=apply_nonlin self.smooth=smooth self.alpha=0.3 self.beta=0.7 defforward(self,x,y,loss_mask=None): shp_x=x.shape ifself.batch_dice: axes=[0]+list(range(2,len(shp_x))) else: axes=list(range(2,len(shp_x))) ifself.apply_nonlinisnotNone: x=self.apply_nonlin(x) tp,fp,fn=get_tp_fp_fn(x,y,axes,loss_mask,self.square) tversky=(tp+self.smooth)/(tp+self.alpha*fp+self.beta*fn+self.smooth) ifnotself.do_bg: ifself.batch_dice: tversky=tversky[1:] else: tversky=tversky[:,1:] tversky=tversky.mean() return-tversky
3、Focal Tversky Loss
与“Focal loss”相似,后者着重于通过降低易用/常见损失的权重来说明困难的例子。Focal Tversky Loss还尝试借助γ系数来学习诸如在ROI(感兴趣区域)较小的情况下的困难示例,如下所示:
classFocalTversky_loss(nn.Module): """ paper:https://arxiv.org/pdf/1810.07842.pdf authorcode:https://github.com/nabsabraham/focal-tversky-unet/blob/347d39117c24540400dfe80d106d2fb06d2b99e1/losses.py#L65 """ def__init__(self,tversky_kwargs,gamma=0.75): super(FocalTversky_loss,self).__init__() self.gamma=gamma self.tversky=TverskyLoss(**tversky_kwargs) defforward(self,net_output,target): tversky_loss=1+self.tversky(net_output,target)#=1-tversky(net_output,target) focal_tversky=torch.pow(tversky_loss,self.gamma) returnfocal_tversky
4、Sensitivity Specificity Loss
首先敏感性就是召回率,检测出确实有病的能力:
特异性,检测出确实没病的能力:
而Sensitivity Specificity Loss为:
classSSLoss(nn.Module): def__init__(self,apply_nonlin=None,batch_dice=False,do_bg=True,smooth=1., square=False): """ Sensitivity-Specifityloss paper:http://www.rogertam.ca/Brosch_MICCAI_2015.pdf tfcode:https://github.com/NifTK/NiftyNet/blob/df0f86733357fdc92bbc191c8fec0dcf49aa5499/niftynet/layer/loss_segmentation.py#L392 """ super(SSLoss,self).__init__() self.square=square self.do_bg=do_bg self.batch_dice=batch_dice self.apply_nonlin=apply_nonlin self.smooth=smooth self.r=0.1#weightparameterinSSpaper defforward(self,net_output,gt,loss_mask=None): shp_x=net_output.shape shp_y=gt.shape #class_num=shp_x[1] withtorch.no_grad(): iflen(shp_x)!=len(shp_y): gt=gt.view((shp_y[0],1,*shp_y[1:])) ifall([i==jfori,jinzip(net_output.shape,gt.shape)]): #ifthisisthecasethengtisprobablyalreadyaonehotencoding y_onehot=gt else: gt=gt.long() y_onehot=torch.zeros(shp_x) ifnet_output.device.type=="cuda": y_onehot=y_onehot.cuda(net_output.device.index) y_onehot.scatter_(1,gt,1) ifself.batch_dice: axes=[0]+list(range(2,len(shp_x))) else: axes=list(range(2,len(shp_x))) ifself.apply_nonlinisnotNone: softmax_output=self.apply_nonlin(net_output) #noobjectvalue bg_onehot=1-y_onehot squared_error=(y_onehot-softmax_output)**2 specificity_part=sum_tensor(squared_error*y_onehot,axes)/(sum_tensor(y_onehot,axes)+self.smooth) sensitivity_part=sum_tensor(squared_error*bg_onehot,axes)/(sum_tensor(bg_onehot,axes)+self.smooth) ss=self.r*specificity_part+(1-self.r)*sensitivity_part ifnotself.do_bg: ifself.batch_dice: ss=ss[1:] else: ss=ss[:,1:] ss=ss.mean() returnss
5、Log-Cosh Dice Loss(本文提出的损失函数)
Dice系数是一种用于评估分割输出的度量标准。它也已修改为损失函数,因为它可以实现分割目标的数学表示。但是由于其非凸性,它多次都无法获得最佳结果。Lovsz-softmax损失旨在通过添加使用Lovsz扩展的平滑来解决非凸损失函数的问题。同时,Log-Cosh方法已广泛用于基于回归的问题中,以平滑曲线。
将Cosh(x)函数和Log(x)函数合并,可以得到Log-Cosh Dice Loss:
deflog_cosh_dice_loss(self,y_true,y_pred): x=self.dice_loss(y_true,y_pred) returntf.math.log((torch.exp(x)+torch.exp(-x))/2.0)
Boundary-based loss
1、Shape-aware Loss
顾名思义,Shape-aware Loss考虑了形状。通常,所有损失函数都在像素级起作用,Shape-aware Loss会计算平均点到曲线的欧几里得距离,即预测分割到ground truth的曲线周围点之间的欧式距离,并将其用作交叉熵损失函数的系数,具体定义如下:(CE指交叉熵损失函数)
classDistBinaryDiceLoss(nn.Module): """ DistancemappenalizedDiceloss Motivatedby:https://openreview.net/forum?id=B1eIcvS45V DistanceMapLossPenaltyTermforSemanticSegmentation """ def__init__(self,smooth=1e-5): super(DistBinaryDiceLoss,self).__init__() self.smooth=smooth defforward(self,net_output,gt): """ net_output:(batch_size,2,x,y,z) target:groundtruth,shape:(batch_size,1,x,y,z) """ net_output=softmax_helper(net_output) #onehotcodeforgt withtorch.no_grad(): iflen(net_output.shape)!=len(gt.shape): gt=gt.view((gt.shape[0],1,*gt.shape[1:])) ifall([i==jfori,jinzip(net_output.shape,gt.shape)]): #ifthisisthecasethengtisprobablyalreadyaonehotencoding y_onehot=gt else: gt=gt.long() y_onehot=torch.zeros(net_output.shape) ifnet_output.device.type=="cuda": y_onehot=y_onehot.cuda(net_output.device.index) y_onehot.scatter_(1,gt,1) gt_temp=gt[:,0,...].type(torch.float32) withtorch.no_grad(): dist=compute_edts_forPenalizedLoss(gt_temp.cpu().numpy()>0.5)+1.0 #print('dist.shape:',dist.shape) dist=torch.from_numpy(dist) ifdist.device!=net_output.device: dist=dist.to(net_output.device).type(torch.float32) tp=net_output*y_onehot tp=torch.sum(tp[:,1,...]*dist,(1,2,3)) dc=(2*tp+self.smooth)/(torch.sum(net_output[:,1,...],(1,2,3))+torch.sum(y_onehot[:,1,...],(1,2,3))+self.smooth) dc=dc.mean() return-dc
2、Hausdorff Distance Loss
Hausdorff Distance Loss(HD)是分割方法用来跟踪模型性能的度量。
任何分割模型的目的都是为了最大化Hausdorff距离,但是由于其非凸性,因此并未广泛用作损失函数。有研究者提出了基于Hausdorff距离的损失函数的3个变量,它们都结合了度量用例,并确保损失函数易于处理。
classHDDTBinaryLoss(nn.Module): def__init__(self): """ computehaudorfflossforbinarysegmentation https://arxiv.org/pdf/1904.10030v1.pdf """ super(HDDTBinaryLoss,self).__init__() defforward(self,net_output,target): """ net_output:(batch_size,2,x,y,z) target:groundtruth,shape:(batch_size,1,x,y,z) """ net_output=softmax_helper(net_output) pc=net_output[:,1,...].type(torch.float32) gt=target[:,0,...].type(torch.float32) withtorch.no_grad(): pc_dist=compute_edts_forhdloss(pc.cpu().numpy()>0.5) gt_dist=compute_edts_forhdloss(gt.cpu().numpy()>0.5) #print('pc_dist.shape:',pc_dist.shape) pred_error=(gt-pc)**2 dist=pc_dist**2+gt_dist**2#/alpha=2ineq(8) dist=torch.from_numpy(dist) ifdist.device!=pred_error.device: dist=dist.to(pred_error.device).type(torch.float32) multipled=torch.einsum("bxyz,bxyz->bxyz",pred_error,dist) hd_loss=multipled.mean() returnhd_loss
Compounded loss
1、Exponential Logarithmic Loss
指数对数损失函数集中于使用骰子损失和交叉熵损失的组合公式来预测不那么精确的结构。对骰子损失和熵损失进行指数和对数转换,以合并更精细的分割边界和准确的数据分布的好处。它定义为:
2、Combo Loss
组合损失定义为Dice loss和修正的交叉熵的加权和。它试图利用Dice损失解决类不平衡问题的灵活性,同时使用交叉熵进行曲线平滑。定义为:(DL指Dice Loss)
审核编辑 黄昊宇
-
图像分割
+关注
关注
4文章
182浏览量
18012 -
深度学习
+关注
关注
73文章
5504浏览量
121222
发布评论请先 登录
相关推荐
评论