0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

一个单路径One-Shot模型,以解决训练过程中面对的主要挑战

电子工程师 来源:lp 2019-04-04 16:46 次阅读

近日,来自旷视研究院的郭梓超、张祥雨、穆皓远、孙剑等人发表一篇新论文“Single Path One-Shot Neural Architecture Search with Uniform Sampling”,提出一个单路径 One-Shot 模型,以解决训练过程中面对的主要挑战。目前,这一方法在大型数据集 ImageNet 上取得了当前最优结果。

值得一提的是,孙剑现任旷视研究院院长,与同为深度残差网络ResNet作者之一的张祥雨(与孙剑一起加盟旷视)早已合作多次。

传送门:

https://arxiv.org/abs/1904.00420

导语

简介

本文 One-Shot NAS

One-Shot NAS方法回顾

单路径超网络与均匀采样

超网络与选择单元

通道数搜索

混合精度量化搜索

基于进化算法的模型搜索

总结

实验

构造单元搜索

通道数搜索

对比SOTA方法

混合精度量化搜索

搜索成本分析

参考文献

导语

一步法(One-Shot)是一个强大的神经网络模型搜索(Neural Architecture Search/NAS)框架,但是它的训练相对复杂,并且很难在大型数据集(比如 ImageNet)上取得较有竞争力的结果。

本文中,旷视研究院提出一个单路径 One-Shot 模型,以解决训练过程中面对的主要挑战,其核心思想是构建一个简化的超网络——单路径超网络(Single Path Supernet),这个网络按照均匀的路径采样方法进行训练。

所有子结构(及其权重)获得充分而平等的训练。基于这个已训练的超网络,可以通过进化算法快速地搜索最优子结构,其中无需对任何子结构进行微调。

对比实验证明了这一方法的灵活性和有效性,不仅易于训练和快速搜索,并且可以轻松支持不同的复杂搜索空间(比如构造单元,通道数,混合精度量化)和搜索约束(比如 FLOPs,速度),从而便于满足多种需求。这一方法在大型数据集 ImageNet 上取得了当前最优结果。

简介

深度学习终结了手工设计特征的时代,同时解决了权重优化问题。NAS 则旨在通过另一个方法——模型搜索(architecture search),终结人工设计架构。

早期的 NAS 方法使用嵌套式优化,从搜索空间采样出模型结构,接着从头训练其权重,缺点是对于大型数据集来讲计算量过大。新近的 NAS 方法则采用权重共享策略减少计算量。本文提出的超网络则包含所有子结构,只训练一次,所有子结构便可以直接从超网络获得其权重,无需从头训练。即使在大型数据集上,计算也十分高效。

大多数权重共享方法使用连续的搜索空间,将模型结构分布不断参数化。这些参数在超网络训练期间与网络权重进行联合优化。因此可以在优化时进行模型搜索,从分布中采样最优的架构。其公式化表示优雅而理论完备。但是存在两个问题:

第一,超网络的权重深度耦合。目前尚不清楚为什么特定结构的复用权重(inherited weights)依然有效。第二,联合优化导致了模型参数和超网络权重的进一步耦合。梯度方法的贪婪天性不可避免地在结构分布和超网络权重中引入偏差。这很容易误导模型搜索。精细地微调超参数和优化过程被用于先前方法之中。

One-Shot 是一种新范式。它定义了超网络,并以相似的方式做权重复用。但是并没有将模型结构分布参数化。模型搜索从超网络训练中解耦,并且解决步骤是独立的。因此,One-Shot 具有序列性。它结合了上述嵌套式和联合式优化方法的优点,因此灵活而高效。

尽管第二个问题已解决,现有 One-Shot 并未很好地解决第一个问题。超网络的权重依然耦合。优化依然复杂,并包含敏感的超参数,导致在大型数据集上表现欠佳。

本文方法的动机旨在吸收 One-Shot 的优点,克服其缺点。One-Shot 成功的关键是使用复用权重的模型的精度可以用来预测从头训练模型的精度。因此,旷视研究院提出,超网络训练应是随机的。这样所有子结构的权重能够被同时且均匀地优化。

为减少超网络的权重耦合,旷视研究院提出一个单路径超网络,在每次迭代训练中只有单路径结构被激活。训练中不需要任何超参数来指导子结构的选择,采用均匀采样的方式,平等对待所有子结构。

本文方法简单而灵活,超网络训练中没有超参数。其简易性允许设计丰富的搜索空间,包括新设计通道单元和位宽单元。模型搜索过程十分高效,因为只需要基于超网络的权重进行前向计算。进化算法则用来轻松支持多种约束。

综合性消融实验及在大型数据集(ImageNet)上的实验证明了这一方法在精度、内存消耗、训练时间、模型搜索的有效性及灵活性方面都表现良好,达到了当前最优的结果。

本文 One-Shot NAS

One-Shot NAS方法回顾

上所述,耦合式模型搜索和权重优化是存在挑战和问题的。通过回顾发现,早期使用嵌套优化的 NAS 方法在于解决公式 (1) 和 (2) 的优化问题,这不禁引起思考,问题解耦和权重共享的优点是否可以兼得?

这一考虑诞生了所谓的 One-Shot 。这些方法依然只训练一次超网络,并允许各结构共享其中的权重。

但是,超网络训练及模型搜索作为先后次序的两个步骤是解耦的。请注意,这不同于嵌套优化或联合优化。

首先,超网络权重被优化为:

相比公式 (4)

,公式 (5) 已经不存在搜索空间的连续参数化,只有网络权重被优化。

其次,搜索部分被表示为:

公式 (6) 与公式 (1) 、 (2) 的最大区别是其权重是预先初始化的。评估 仅需要推理。没有微调或者再训练。因此搜索非常有效。

通过借助进化算法,搜索同样非常灵活。像等式 (3)对模型结构进行的约束可以精确地满足。并且一旦训练好一个超网络,可在同一超网络内基于不同约束(比如 100ms 和 200ms 延迟)重复搜索。这些特性是先前方法所缺失的,将使 One-Shot NAS 方法对实际任务更具吸引力。

但依然存在一个问题。在等式 (5) 中,超网络训练的图节点权重是耦合的,复用权重是否适用于任意子结构尚不清楚。

单路径超网络和均匀采样

按照基本原理重新出发,会使 One-Shot 范式更有效。在等式 (5) 中,模型搜索成功的关键在于,在验证集中,使用复用权重(没有额外的微调)的任意子结构的精度是高度可信的。正如等式 (1) 是理想情况,需要权重。近似的效果和训练损失函数的优化应当与搜索空间中所有子结构的优化同时进行。这可表示为:

请注意,等式 (7) 是等式 (5) 的实现。在优化的每一步中,子结构是随机采样的,只有对应的权重被激活和更新。这不仅节省内存空间,而且高效。由此,超网络本身不再是一个有效的网络,而变成一个随机的网络。

为减少节点权重之间的协同适应,旷视研究院提出最大化简化搜索空间

图 1:单一路径超网络架构图

在每次训练时仅保留一个。不存在任何调优。训练在本文实验中收敛良好。

先验分布

表 2:不同采样策略的单路径超网络的进化模型搜索

本文注意到,在优化时根据结构分布采样一个路径已经出现在之前的权重共享方法之中,区别在于,在本文的训练中(等式(7))分布      是一个固定的先验,而在先前方法中,它是可学习和更新的(等式(4)),后者会使超网络权重和结构参数优化高度关联。

请注意,本文并未声明在训练时一个固定的先验分布天生优于优化分布。不存在这样的理论保证。本文更优的结果可能是受益于这一事实:当前优化技术的成熟度不足以满足等式 (4) 中的联合优化需求。

超网络与选择单元

选择单元用于构建一个超网络。图 1 给出了一个实例。一个选择单元包含多个选择。对于本文提出的单路径超网络,每个选择单元一次只调用一个选择。一个路径的获得是通过随机采样所有选择单元实现的。

本文方法的简易性允许定义不同类型的选择单元,以搜索不同的结构变量。具体而言,旷视研究院提出两个全新的选择单元,以支持复杂的搜索空间。

通道数搜索。选择单元旨在搜索一个卷积层的通道数。其主要思想是预先分配一个带有最大通道数的权重张量。在超网络训练期间,系统随机选择通道数并分割出用于卷积的相应的子张量。详见图 4。

图 4:用于通道数搜索的选择单元

混合精度量化搜索。选择单元可以搜索卷积层权重和特征的量化精度。在超网络训练中,特征图的位宽和和权重被随机选取。详见图 5。

图 5:用于混合精度量化搜索的选择单元

基于进化算法的模型搜索

针对等式 (6) 中的模型搜索,先前的 One-Shot 工作使用随机搜索。这在大的搜索空间中并不奏效。因此,本文使用了进化算法,同时扬弃了从头开始训练每个子结构的缺点,只涉及推理部分,因此非常高效。详见算法 1。

算法 1:基于进化算法的模型搜索

图 3 描绘了使用进化算法和随机搜索两种方法在进化迭代时的验证集精度。很明显进化算法搜索更有效。

图 3:进化算法搜索对比随机搜索

进化算法可以灵活处理等式 (3) 的不同约束,因为变异和交叉过程是可控的,以产生满足约束条件的合适候选。

总结

单路径超网络、均匀采样训练策略、基于进化算法的模型搜索、丰富的搜索空间设计,上述多种设计使得本文方法简单、高效和灵活。表 1 给出了本文方法与其他权重共享方法的一个全方位、多维度对比结果。

表 1:本文方法对比当前权重共享 SOTA 方法

实验

所有实验是在 ImageNet 上进行的。验证集和测试集的设定遵从 Proxyless NAS[4]。对于超网络的训练,以及(进化搜索之后)最优模型结构的从头再训练,本文使用和 [17] 一样的设定。

构造单元搜索

构造单元(building block)的设计灵感来自手工设计网络的代表作——ShuffleNet v2。表 2 给出了超网络的整体架构。共有 20 个选择单元。

表 2:超网络架构

表 3 给出了结果。为了对比,本文设置了一系列基线,如下:1)只选择一个特定的单元选择;2)从搜索空间中随机选择一些候选;3)使用随机搜索替代本文的进化算法模型搜索。

表 3:构造单元搜索结果

通道数搜索

搜索卷积层的通道数非常有挑战,如图 4 所示,本文提出一个全新的选择单元用于通道数搜索,并首先在基线结构 “all choice 3”(见表 3)做了评估,结果如表 4 (第一部分)所示;为进一步提升精度,本文对构造单元和通道做了联合搜索。结果如表 4(第二部分)所示。

表 4:通道数搜索

对比SOTA方法

虽然表 4 展示了本文方法的优越性,但是由于搜索空间和训练方法的不同,存在不公平对比的可能性。为直接进行对比,本文采用和 Proxyless NAS [4]、FBNet [26] 相同的搜索空间,并在同一设置下再训练已搜索的模型,具体对比结果如表 5 所示:

表 5:本文方法与当前 SOTA NAS 方法的对比

混合精度量化搜索

低功率设备部署模型时需要用到量化技术。但是在通道数与位宽之间找到一个权衡不无挑战。对于这些问题,本文方法可迎刃而解。

这里的搜索空间包含上述的通道搜索空间和混合精度量化搜索空间,后者使用一个全新的选择单元搜索权重和特征图的位宽,如图 5 所示。

在超网络训练中,对于每个选择单元,特征位宽和权重位宽是随机采样的。他们在进化步骤中被确定。具体实验结果如表 6 所示:

表 6:混合精度量化搜索的结果

搜索成本分析

搜索成本在 NAS 中是一件要紧的事。本文给出了与先前方法 [4] [26] 的一些对比结果,如表 7 所示:

表 7:搜索成本

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4771

    浏览量

    100777
  • 数据集
    +关注

    关注

    4

    文章

    1208

    浏览量

    24703
  • 深度学习
    +关注

    关注

    73

    文章

    5503

    浏览量

    121172

原文标题:旷视提出AutoML新方法,在ImageNet取得新突破 | 技术头条

文章出处:【微信号:rgznai100,微信公众号:rgznai100】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    请问采样保持芯片AD783的ONE-SHOT是什么电路

    您好! 有俩问题请教!附件里是AD783的Datasheet里推荐的采样电路。我的问题是:1.这个电路里的ONE-SHOT 是什么电路, 2.那个触发器使用的是什么型号的触发器
    发表于 12-03 09:19

    Pytorch模型训练实用PDF教程【中文】

    本教程实际应用、工程开发为目的,着重介绍模型训练过程中遇到的实际问题和方法。在机器学习模型开发主要
    发表于 12-21 09:18

    卷积神经网络训练过程中的SGD的并行化设计

    for parallelizing convolutional neural networks 本文也将针对这篇文章给出分析。 1、简介 介绍种卷积神经网络训练过程中的SGD的并行化方法。
    发表于 11-16 14:43 3366次阅读

    分类器的训练过程

    opencvhaar、lbp的训练原理及过程
    发表于 11-27 15:18 0次下载

    思必驰积淀许久的one-shot功能也终于揭开神秘面纱

    : 用户:你好小驰(唤醒词指令) 设备:有什么可以帮您?(设备反馈,表示处于信息接收状态) 用户:我要去机场 设备:开始为您导航去机场 one-shot功能却可以语即
    的头像 发表于 08-06 11:55 7860次阅读

    带Dropout的训练过程

    Dropout是指在深度学习网络的训练过程中,对于神经网络单元,按照定的概率将其暂时从网络丢弃。
    的头像 发表于 08-08 10:35 4227次阅读
    带Dropout的<b class='flag-5'>训练过程</b>

    LTC6993: One Shot

    LTC6993: One Shot
    发表于 02-03 16:42 10次下载
    LTC6993: <b class='flag-5'>One</b> <b class='flag-5'>Shot</b>

    如何在训练过程中正确地把数据输入给模型

    机器学习中常见问题是判定与数据交互的最佳方式。 在本文中,我们将提供种高效方法,用于完成数据的交互、组织以及最终变换(预处理)。随后,我们将讲解如何在训练过程中正确地把数据输入给
    的头像 发表于 07-01 10:47 2407次阅读

    基于分割后门训练过程的后门防御方法

    后门攻击的目标是通过修改训练数据或者控制训练过程等方法使得模型预测正确干净样本,但是对于带有后门的样本判断为目标标签。例如,后门攻击者给图片增加固定位置的白块(即中毒图片)并且修改图片的标签为目标标签。用这些中毒数据
    的头像 发表于 01-05 09:23 901次阅读

    基于GLM-6B对话模型的实体属性抽取项目实现解析

    Zero-shotOne-shot以及Few-shot让人傻傻分不清,读了很多文章,也没搞清楚他们的差别,究竟什么叫zero-shot,其在应用
    的头像 发表于 03-28 10:11 6996次阅读

    深度学习模型训练过程详解

    深度学习模型训练复杂且关键的过程,它涉及大量的数据、计算资源和精心设计的算法。训练
    的头像 发表于 07-01 16:13 1279次阅读

    CNN模型的基本原理、结构、训练过程及应用领域

    CNN模型的基本原理、结构、训练过程以及应用领域。 卷积神经网络的基本原理 1.1 卷积运算 卷积运算是CNN模型的核心,它是种数学运算
    的头像 发表于 07-02 15:26 3588次阅读

    深度学习的典型模型训练过程

    深度学习作为人工智能领域的重要分支,近年来在图像识别、语音识别、自然语言处理等多个领域取得了显著进展。其核心在于通过构建复杂的神经网络模型,从大规模数据自动学习并提取特征,进而实
    的头像 发表于 07-03 16:06 1477次阅读

    解读PyTorch模型训练过程

    PyTorch作为开源的机器学习库,以其动态计算图、易于使用的API和强大的灵活性,在深度学习领域得到了广泛的应用。本文将深入解读PyTorch模型训练的全
    的头像 发表于 07-03 16:07 1072次阅读

    FP8模型训练Debug优化思路

    目前,市场上许多公司都积极开展基于 FP8 的大模型训练提高计算效率和性能。在此,我们整理并总结了客户及 NVIDIA 技术团队在 FP8 模型
    的头像 发表于 09-06 14:36 333次阅读
    FP8<b class='flag-5'>模型</b><b class='flag-5'>训练</b><b class='flag-5'>中</b>Debug优化思路