0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

BN算法和过程

gVTR_Unf 来源: 机器学习炼丹术 作者:机器学习炼丹术 2020-09-07 16:35 次阅读

1 BN的优点

这里简单的介绍一下BN,在之前的文章中已经详细的介绍了BN算法和过程。

BN于2015年由 Google 提出,Google在ICML论文中描述的非常清晰,即在每次SGD时,通过mini-batch来对相应的activation做规范化操作,使得结果(输出信号各个维度)的均值为0,方差为1。最后的“scale and shift”操作则是为了训练所需而“刻意”加入的BN能够有可能还原最初的输入,从而保证数据中有用信息的留存。

【BN的好处】

BN使得网络中每层输入数据的分布相对稳定,加速模型学习速度;

BN使得模型对网络中的参数不那么敏感,简化调参过程,使得网络学习更加稳定;

BN允许网络使用饱和性激活函数(例如sigmoid,tanh等),缓解梯度消失问题;

BN具有一定的正则化效果。

2 BN的缺点

2.1 受限于Batch size

BN 沿着 batch 维度进行归一化,其受限于 Batch Size,当 Batch Size 很小时,BN 会得到不准确的统计估计,会导致模型误差明显增加

【一般每块 GPU 上 Batch Size =32 最合适。】

但对于目标检测,语义分割,视频场景等,输入图像尺寸比较大,而限于GPU显卡的显存限制,导致无法设置较大的 Batch Size,如 经典的Faster-RCNN、Mask R-CNN 网络中,由于图像的分辨率较大,Batch Size 只能是 1 或 2.

2.2 训练集与测试集的分布

BN处理训练集的时候,采用的均值和方差是整个训练集的计算出来的均值和方差(这一部分没有看懂的话,可能需要去看一下BN算法的详解)

所以测试和训练的数据分布如果存在差异,那么就会导致训练和测试之间存在不一致现象(Inconsistency)。

3 Group Normalzation

Group Normalization(GN)是由2018年3月份何恺明团队提出,GN优化了BN在比较小的mini-batch情况下表现不太好的劣势。

Group Normalization(GN) 则是提出的一种 BN 的替代方法,其是首先将 Channels 划分为多个 groups,再计算每个 group 内的均值和方法,以进行归一化。GB的计算与Batch Size无关,因此对于高精度图片小BatchSize的情况也是非常稳定的,

下图是比较BN和GN在Batch Size越来越小的变化中,模型错误率变化的对比图:

因此在实验的时候,可以在尝试使用GN来代替BN哦~

其实不难发现,GN和LN是存在一定的关系的。

上图中有四种Normalization的方法。就先从最简单的Instance Normalization开始分析:

IN:仅仅对每一个图片的每一个通道最归一化。也就是说,对【H,W】维度做归一化。假设一个特征图有10个通道,那么就会得到10个均值和10个方差;要是一个batch有5个样本,每个样本有10个通道,那么IN总共会计算出50个均值方差;

LN:对一个特征图的所有通道做归一化。5个10通道的特征图,LN会给出5个均值方差;

GN:这个是介于LN和IN之间的一种方法。假设Group分成2个,那么10个通道就会被分成5和5两组。然后5个10通道特征图会计算出10个均值方差。

BN:这个就是对Batch维度进行计算。所以假设5个100通道的特征图的话,就会计算出100个均值方差。5个batch中每一个通道就会计算出来一个均值方差。

在GN的论文中,给出了GN推荐的group Number:

第一个表格展示GN的group Number不断减小,退化成LN的过程。其实,分组32个group效果最好;

第二个表格展示GN的每一组的channel数目不断减小,退化成IN的过程。每一组16个channel的效果最好,我个人在项目中也会有优先尝试16个通道为一组的这种参数设置。

4 PyTorch实现GN

importnumpyasnp importtorch importtorch.nnasnn classGroupNorm(nn.Module): def__init__(self,num_features,num_groups=32,eps=1e-5): super(GroupNorm,self).__init__() self.weight=nn.Parameter(torch.ones(1,num_features,1,1)) self.bias=nn.Parameter(torch.zeros(1,num_features,1,1)) self.num_groups=num_groups self.eps=eps defforward(self,x): N,C,H,W=x.size() G=self.num_groups assertC%G==0 x=x.view(N,G,-1) mean=x.mean(-1,keepdim=True) var=x.var(-1,keepdim=True) x=(x-mean)/(var+self.eps).sqrt() x=x.view(N,C,H,W)

当然,你要是想问PyTorch是否已经集成了GN?那必然的。下面的代码比较了PyTorch集成的GN和我们手算的GN的结果。

importtorch importtorch.nnasnn x=torch.randn([2,10,3,3])+1 #Torch集成的方法 m=torch.nn.GroupNorm(num_channels=10,num_groups=2) #先计算前面五个通道的均值 firstDimenMean=torch.Tensor.mean(x[0,0:5]) #先计算前面五个通道的方差 firstDimenVar=torch.Tensor.var(x[0,0:5],False) #减去均值乘方差 y2=((x[0][0][0][1]-firstDimenMean)/(torch.pow(firstDimenVar+m.eps,0.5)))*m.weight[0]+m.bias[0] print(y2) y1=m(x) print(m.weight) print(m.bias) print(y1[0,0,0,1])

输出结果:

tensor(0.4595,grad_fn=) Parametercontaining: tensor([1.,1.,1.,1.,1.,1.,1.,1.,1.,1.],requires_grad=True) Parametercontaining: tensor([0.,0.,0.,0.,0.,0.,0.,0.,0.,0.],requires_grad=True) tensor(0.4595,grad_fn=)

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • Google
    +关注

    关注

    5

    文章

    1766

    浏览量

    57612
  • 图像
    +关注

    关注

    2

    文章

    1087

    浏览量

    40497
  • pytorch
    +关注

    关注

    2

    文章

    808

    浏览量

    13249

原文标题:小白学图像 | Group Normalization详解+PyTorch代码

文章出处:【微信号:Unfinished_coder,微信公众号:机器视觉CV】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    深入解析ECC256椭圆曲线加密算法

    点击蓝字关注我们一、加密算法概述数据加密的基本过程就是对原来为明文的文件或数据按某种算法进行处理,使其成为不可读的一段代码为“密文”,使其只能在输入相应的密钥之后才能显示出原容,通过这样的途径来达到
    的头像 发表于 12-26 16:32 100次阅读
    深入解析ECC256椭圆曲线加密<b class='flag-5'>算法</b>

    MHMF082L81N-MINAS A6BN 系列 标准规格书 松下

    电子发烧友网为你提供Panasonic(Panasonic)MHMF082L81N-MINAS A6BN 系列 标准规格书相关产品参数、数据手册,更有MHMF082L81N-MINAS A6BN
    发表于 12-06 18:41
    MHMF082L81N-MINAS A6<b class='flag-5'>BN</b> 系列 标准规格书 松下

    MHMF082L71N-MINAS A6BN 系列 标准规格书 松下

    电子发烧友网为你提供Panasonic(Panasonic)MHMF082L71N-MINAS A6BN 系列 标准规格书相关产品参数、数据手册,更有MHMF082L71N-MINAS A6BN
    发表于 12-03 18:55
    MHMF082L71N-MINAS A6<b class='flag-5'>BN</b> 系列 标准规格书 松下

    MHMF082L41N-MINAS A6BN 系列 标准规格书 松下

    电子发烧友网为你提供Panasonic(Panasonic)MHMF082L41N-MINAS A6BN 系列 标准规格书相关产品参数、数据手册,更有MHMF082L41N-MINAS A6BN
    发表于 11-29 18:43
    MHMF082L41N-MINAS A6<b class='flag-5'>BN</b> 系列 标准规格书 松下

    【BearPi-Pico H3863星闪开发板体验连载】LZO压缩算法移植

    正常通过编译,后续才能调试代码的功能。 在HiSpark Studio移植LZO算法,遇到一些坑, 编译报错 : 编译报错是移植代码过程中常见的错误,为什么HiSpark Studi算是一个坑呢?LZO
    发表于 11-10 21:45

    AIGC算法解析及其发展趋势

    、AIGC算法解析 核心基础 人工智能算法 :AIGC技术的基础和灵魂,如深度学习、机器学习等算法,使机器能够模拟人类的思考和行为过程,从而自主地完成各种任务。这些
    的头像 发表于 10-25 15:35 468次阅读

    MHMF042L43N-MINAS A6BN 系列 标准规格书 松下

    电子发烧友网为你提供Panasonic(Panasonic)MHMF042L43N-MINAS A6BN 系列 标准规格书相关产品参数、数据手册,更有MHMF042L43N-MINAS A6BN
    发表于 10-16 19:13
    MHMF042L43N-MINAS A6<b class='flag-5'>BN</b> 系列 标准规格书 松下

    MHMF042L33N-MINAS A6BN 系列 标准规格书 松下

    电子发烧友网为你提供Panasonic(Panasonic)MHMF042L33N-MINAS A6BN 系列 标准规格书相关产品参数、数据手册,更有MHMF042L33N-MINAS A6BN
    发表于 10-15 19:16
    MHMF042L33N-MINAS A6<b class='flag-5'>BN</b> 系列 标准规格书 松下

    充电也要算法?储能充电芯片中的算法处理器

    电子发烧友网报道(文/黄山明)充电算法处理器是一种专门设计用于执行充电算法的微处理器或ASIC,这些算法可以优化电池的充电过程,提高充电效率,延长电池寿命,并确保充电安全。这种处理器通
    的头像 发表于 07-30 00:07 3736次阅读

    图像识别算法都有哪些方法

    图像识别算法是计算机视觉领域的核心任务之一,它涉及到从图像中提取特征并进行分类、识别和分析的过程。随着深度学习技术的不断发展,图像识别算法已经取得了显著的进展。本文将介绍图像识别算法
    的头像 发表于 07-16 11:14 5693次阅读

    信号采样的算法原理是什么

    信号采样是一种将连续信号转换为离散信号的过程,它是数字信号处理的基础。本文将详细介绍信号采样的算法原理,包括采样过程、采样定理、采样方法、采样率、量化误差、抗混叠滤波器、插值技术等方面的内容。 采样
    的头像 发表于 07-15 14:20 910次阅读

    bp神经网络算法过程包括

    算法过程,包括网络结构、激活函数、训练过程、反向传播算法、权重更新策略等。 网络结构 BP神经网络由输入层、隐藏层和输出层组成,每层包含若干神经元。输入层的神经元数量与问题的特征维度
    的头像 发表于 07-04 09:45 489次阅读

    神经网络反向传播算法的推导过程

    反向传播算法的推导过程,包括前向传播、损失函数、梯度计算和权重更新等步骤。 前向传播 前向传播是神经网络中信息从输入层到输出层的传递过程。在多层前馈神经网络中,每个神经元都与前一层的所有神经元相连,并通过激活函数进行非线性变换。
    的头像 发表于 07-03 11:13 622次阅读

    深度学习模型训练过程详解

    深度学习模型训练是一个复杂且关键的过程,它涉及大量的数据、计算资源和精心设计的算法。训练一个深度学习模型,本质上是通过优化算法调整模型参数,使模型能够更好地拟合数据,提高预测或分类的准确性。本文将
    的头像 发表于 07-01 16:13 1332次阅读

    如何对MD5加密算法优化?

    有人针对程序安全启动过程,进行MD5算法的优化嘛。目前采用标准算法,时间稍长,如果有人做过优化的话,可以分享一下,谢谢。
    发表于 02-18 08:20