0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

首个关于深度神经网络训练相关的理论证明

倩倩 来源:新智元 2020-04-17 11:15 次阅读

谷歌AI最新发布的一篇论文给出了首个关于深度神经网络训练相关的理论证明,实验观察结果也为初步解释梯度下降强于贝叶斯优化奠定了基础。神经网络的理论面纱,正逐步被揭开。

原来,神经网络实际上跟线性模型并没那么大不同!

谷歌AI的研究人员日前在arxiv贴出一篇文章,给出了首个神经网络训练相关的理论证明。

实验中,他们将一个实际的神经网络训练过程与线性模型的训练过程相比,发现两者高度一致。这里用到的神经网络是一个wide ResNet,包括ReLU层、卷积层、pooling层和batch normalization;线性模型是用ResNet关于其初始(随机)参数的泰勒级数建立的网络。

将神经网络的训练过程与线性模型的相比,两者高度一致

在多个不同模型上试验并排除量化误差后,观察结果依旧保持一致。由此,谷歌AI研究人员得出结论,当学习率比较小且网络足够宽(不必无限宽)的时候,神经网络就是线性模型。

由此得出的一个推论是,使用梯度下降训练的大型网络集成能够用一个高斯过程描述,而且在梯度下降的任意时间都能用完备形式化描述这个高斯过程。

这些观察结果也构成了一个理论框架基础,可以用来初步解释长期以来困扰深度学习研究界的一个难题:梯度下降究竟在哪些情况下,具体是如何优于贝叶斯优化?

在训练深度神经网络被戏谑为“调参炼丹”的当下,这一发现犹如一道希望的强光,射进还被排除在“科学”之外的深度学习领域,激动人心。

相关论文:使用梯度下降训练的任意深度的Wide神经网络与线性模型的一致性

终于,调参不再是炼丹:首个关于神经网络训练的理论证明

基于深度神经网络的机器学习模型在许多任务中取得了前所未有的性能。通常,这些模型被认为是复杂系统,其中许多类型的理论分析是很棘手的。此外,由于控制优化的通常是高维的非凸损失平面(non-convex loss surfaces),因此要描述这些模型的基于梯度的训练动态机制具有挑战性。

就像在物理科学中常见的那样,研究这些系统的极限通常可以解释这些难题。对于神经网络来说,其中一个极限就是它的“无限宽度”(infinite width),指的是完全连接层中的隐藏单元数量,或卷积层中的通道数量。

在此限制下,网络初始化时的输出取自高斯过程(GP);此外,在使用平方损失进行精确贝叶斯训练后,网络输出仍然由GP控制。除了理论上的简单性,nfinite-width这一限制也具有实际意义,因为许多研究已经证明,更宽的网络可以更好地进行泛化。

在这项工作中,我们探索了梯度下降下宽的神经网络的学习动态机制(learning dynamics),并发现动态的权重空间描述变得非常简单:随着宽度变大,神经网络可以有效地被关于其初始化参数的一阶泰勒展开式(first-order Taylor expansion)取代。

对于这种诱导的线性模型,梯度下降的动态机制变得易于分析了。虽然线性化只在无限宽度限制下是精确的,但我们发现,即使是有限宽度的情况下,原始网络的预测与线性化版本的预测仍然非常一致。这种一致性在不同的架构、优化方法和损失函数之间都存在。

对于平方损失(squared loss),精确的学习动态机制允许封闭形式的解决方案,这允许我们用GP来描述预测分布的演化。这一结果可以看作是“先采样再优化”(sample-then-optimize)后验采样对深度神经网络训练的延伸。我们的经验模拟证实,该结果准确地模拟了具有不同随机初始化的有限宽度模型集合中预测的变化。

谷歌AI的研究人员表示,这篇论文的几大主要贡献包括:

首先,我们以 Jacot et al. (2018) 最近的研究成果为基础,该成果描述了在infinite width 限制下,整个梯度下降训练过程中网络输出的精确动态。他们的结果证明了参数空间的梯度下降对应于函数空间中关于新核的核梯度下降(kernel gradient descent),即Neural Tangent Kernel (NTK)。

我们工作的一个关键贡献是证明了参数空间中的动态等价于所有网络参数、权重和偏差集合中的仿射模型的训练动态。无论损失函数的选择如何,这个结果都成立。在平方损失的情况下, dynamics允许一个封闭形式的解作为时间函数。

无限宽(infinitely wide)神经网络初始化时的输出是高斯的,并且如Jacot et al.(2018)中所述,平方损失在整个训练过程中始终是高斯的。我们推导了该GP的均值和协方差函数的显式时间依赖表达式,并为结果提供了新的解释。

具体来说,该解释对梯度下降与参数的贝叶斯后验采样的不同机制提供了一种定量理解:虽然这两种方法都取自GP,但梯度下降不会从任何概率模型的后验生成样本。

这一观察结果与(Matthews et al.,2017)的“先采样后优化”(sample-then-optimize)框架形成了对比,在该框架中,只训练顶层权重,梯度下降从贝叶斯后验采样。

这些观察构成了一个框架,用来分析长期存在的问题,如梯度下降是否、如何以及在何种情况下提供了相对于贝叶斯推理的具体好处。

正如Chizat & Bach (2018b)中论述的,这些理论结果可能过于简单,无法适用于现实的神经网络。但是,我们通过实证研究证明了该理论在finite-width设置中的适用性,发现它准确地描述了各种条件下的学习动态机制和后验函数分布,包括一些实际的网络架构,如Wide Residual Network(Zagoruyko & Komodakis, 2016)。

具体实验:无限宽的神经网络就是线性模型

线性化网络(linearized network)

此处,我们将考虑线性化网络的训练动态,具体地说,就是用一阶泰勒展开代替神经网络的输出:

值得注意的是,flint是两项之和:第一项是网络的初始输出,在训练过程中保持不变;第二项是在训练过程中捕捉对初始值的变化。

使用这个线性化函数的梯度流的动态受到如下约束:

无限宽度限制产生高斯过程

当隐藏层的宽度接近无穷大时,中心极限定理(CLT)意味着初始化{f0(x)}x∈X时的输出在分布上收敛于多元高斯分布。这一点可以用归纳法非正式的进行证明。

因此,随机初始化的神经网络对应于一类高斯过程(以下简称NNGP),将有利于神经网络的完全贝叶斯处理。

梯度下降训练中的高斯过程

如果我们在初始化之后冻结变量θ≤L,并且只优化θ≤L+1,那么原始网络及其线性化是相同的。让宽度趋于无穷,这个特殊的tangent kernel的概率将收敛于K。这是用于评估高斯过程后验的“先采样后优化”方法的实现。

我们对比了NNGP、NTK-GP和NN集合的预测分布,如下图所示:

训练神经网络输出的均值和方差的动态遵循线性化的分析动态机制

黑线表示来自100个训练神经网络集合的预测输出分布的时间演变; 蓝色区域表示整个训练中输出分布的分析预测;最后,红色区域表示仅训练顶层的预测,对应于NNGP。

受过训练的网络有3个隐藏层,宽度为8192。阴影区域和虚线表示平均值的2个标准偏差。

无限宽度网络是线性化网络

原始网络的常微分方程(ODE)在一般情况下是不可解的。在积分函数梯度范数保持随机有界为n1,n2,…,nL→∞的技术假设下:

值得注意的是,上面公式中的上界只是理论性的,是根据经验观察得到的:

训练过程中Relative Frobenius范数的改变

在MSE设置中,我们可以对原始网络的输出与其线性化输出之间的差异进行上限:

对于非常宽的网络,我们可以用线性化动态机制来近似训练动态机制。

而从网络线性化中获得的另一个见解是,动态机制等效于随机特征法,其中,特征是模型相对于其权重的梯度。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4762

    浏览量

    100522
  • 梯度
    +关注

    关注

    0

    文章

    30

    浏览量

    10309
  • 机器学习
    +关注

    关注

    66

    文章

    8375

    浏览量

    132397
收藏 人收藏

    评论

    相关推荐

    LSTM神经网络训练数据准备方法

    LSTM(Long Short-Term Memory,长短期记忆)神经网络训练数据准备方法是一个关键步骤,它直接影响到模型的性能和效果。以下是一些关于LSTM神经网络
    的头像 发表于 11-13 10:08 184次阅读

    脉冲神经网络怎么训练

    脉冲神经网络(SNN, Spiking Neural Network)的训练是一个复杂但充满挑战的过程,它模拟了生物神经元通过脉冲(或称为尖峰)进行信息传递的方式。以下是对脉冲神经网络
    的头像 发表于 07-12 10:13 484次阅读

    残差网络深度神经网络

    残差网络(Residual Network,通常简称为ResNet) 是深度神经网络的一种 ,其独特的结构设计在解决深层网络训练中的梯度消失
    的头像 发表于 07-11 18:13 969次阅读

    怎么对神经网络重新训练

    重新训练神经网络是一个复杂的过程,涉及到多个步骤和考虑因素。 引言 神经网络是一种强大的机器学习模型,广泛应用于图像识别、自然语言处理、语音识别等领域。然而,随着时间的推移,数据分布可能会
    的头像 发表于 07-11 10:25 411次阅读

    如何利用Matlab进行神经网络训练

    ,使得神经网络的创建、训练和仿真变得更加便捷。本文将详细介绍如何利用Matlab进行神经网络训练,包括网络创建、数据预处理、
    的头像 发表于 07-08 18:26 1651次阅读

    人工神经网络模型训练的基本原理

    人工神经网络(Artificial Neural Networks,简称ANNs)是一种受生物神经网络启发而构建的数学模型,用于模拟人脑处理信息的方式。它在机器学习和深度学习领域具有广泛的应用,包括
    的头像 发表于 07-05 09:16 557次阅读

    深度神经网络与基本神经网络的区别

    在探讨深度神经网络(Deep Neural Networks, DNNs)与基本神经网络(通常指传统神经网络或前向神经网络)的区别时,我们需
    的头像 发表于 07-04 13:20 662次阅读

    bp神经网络深度神经网络

    BP神经网络(Backpropagation Neural Network)是一种常见的前馈神经网络,它使用反向传播算法来训练网络。虽然BP神经网络
    的头像 发表于 07-03 10:14 674次阅读

    卷积神经网络训练的是什么

    训练过程以及应用场景。 1. 卷积神经网络的基本概念 1.1 卷积神经网络的定义 卷积神经网络是一种前馈深度学习模型,其核心思想是利用卷积
    的头像 发表于 07-03 09:15 346次阅读

    深度神经网络模型有哪些

    深度神经网络(Deep Neural Networks,DNNs)是一类具有多个隐藏层的神经网络,它们在许多领域取得了显著的成功,如计算机视觉、自然语言处理、语音识别等。以下是一些常见的深度
    的头像 发表于 07-02 10:00 1146次阅读

    如何训练和优化神经网络

    神经网络是人工智能领域的重要分支,广泛应用于图像识别、自然语言处理、语音识别等多个领域。然而,要使神经网络在实际应用中取得良好效果,必须进行有效的训练和优化。本文将从神经网络
    的头像 发表于 07-01 14:14 389次阅读

    利用深度循环神经网络对心电图降噪

    进行训练。我们还研究了使用合成数据 集如何影响网络性能。 我们建议使用深度循环去噪神经网络(DRDNN) 对心电图信号进行去噪。它们是一种深度
    发表于 05-15 14:42

    详解深度学习、神经网络与卷积神经网络的应用

    在如今的网络时代,错综复杂的大数据和网络环境,让传统信息处理理论、人工智能与人工神经网络都面临巨大的挑战。近些年,深度学习逐渐走进人们的视线
    的头像 发表于 01-11 10:51 1892次阅读
    详解<b class='flag-5'>深度</b>学习、<b class='flag-5'>神经网络</b>与卷积<b class='flag-5'>神经网络</b>的应用

    Kaggle知识点:训练神经网络的7个技巧

    科学神经网络模型使用随机梯度下降进行训练,模型权重使用反向传播算法进行更新。通过训练神经网络模型解决的优化问题非常具有挑战性,尽管这些算法在实践中表现出色,但不能保证它们会及时收敛到一
    的头像 发表于 12-30 08:27 630次阅读
    Kaggle知识点:<b class='flag-5'>训练</b><b class='flag-5'>神经网络</b>的7个技巧

    如何训练这些神经网络来解决问题?

    神经网络建模中,经常会出现关于神经网络应该有多复杂的问题,即它应该有多少层,或者它的滤波器矩阵应该有多大。这个问题没有简单的答案。与此相关,讨论
    发表于 11-24 15:35 691次阅读
    如何<b class='flag-5'>训练</b>这些<b class='flag-5'>神经网络</b>来解决问题?