0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

生成对抗网络与其他生成模型之间的权衡取舍是什么?

电子工程师 来源:YXQ 2019-04-29 11:01 次阅读

根据一些指标显示,关于生成对抗网络(GAN)的研究在过去两年间取得了本质的进步。在图像合成模型实践中的进步快到几乎无法跟上。

但是,根据其他指标来看,实质性的改进还是较少。例如,在应如何评价生成对抗网络(GAN)仍存在广泛的分歧。鉴于当前的图像合成基线标准已经非常高,似乎快达到了饱和,因此我们认为现在思考这一细分领域的研究目标恰逢其时。

在这篇文章中,谷歌大脑团队的 Augustus Odena 就针对 GAN 的七大开放性问题作出了介绍。

这些问题分别是:

生成对抗网络与其他生成模型之间的权衡取舍是什么?

生成对抗网络可以对哪种分布进行建模?

我们如何在图像合成外扩展生成对抗网络的应用?

关于生成对抗网络训练的全局收敛,我们该作何评价?

我们应如何评估生成对抗网络,又该在何时使用它们?

生成对抗网络的训练是如何调整批量数据的?

对抗生成网络和对抗样本的关系是怎样的?

生成对抗网络与其他生成模型之间的权衡取舍是什么?

除了对抗生成网络之外,目前流行的还有另外两种生成模型:流模型(Flow Models)和自回归模型(Autoregressive Models)。这个名词不必深究其字面含义。它们只是用来描述“模型空间”中模糊聚类的有用术语,但是有些模型很难被简单归类为这些聚类中的哪一个。我也完全没有考虑变分自编码器(VAEs),因为其在目前任何任务中都不是最先进的。

粗略地讲,流模型(Flow Models)先将来自先验的样本进行一系列可逆变换,以便可以精确计算观测值的对数似然。另一方面,自回归模型将观测值的分布分解为条件分布并每次只处理观测值的一部分(对于图像,其每次可能只处理一个像素)。近期的研究表明,这些模型具有不同的性能特征和权衡方法。如何准确地描述这些权衡并确定它们是否为该类模型簇中所固有的,这是一个有趣的开放性问题。

具体来说,先暂时考虑对抗生成网络和流模型之间计算成本的差异。乍一看,流模型似乎可以使对抗生成网络变得多余。流模型可以精确得进行对数似然计算和精确推理,因此如果训练流模型和对抗生成网络的计算成本相同,则对抗生成网络可能失去用武之地。而训练对抗生成网络需要花费大量精力,因此我们应该关心流模型是否能淘汰对抗生成网络。即使在这种情况下,可能仍有其他理由支持在图像到图像翻译等环境中使用对抗训练。将对抗训练和极大似然训练相结合可能仍有意义。

然而,训练对抗生成网络和流模型所需的计算成本之间似乎存在着较大差距。为了估计这个差距的大小,我们考虑这两个在人脸数据库上训练的模型。GLOW模型(一种基于流模型的生成模型)使用40个GPU、约2亿参数值训练,耗时两周后生成像素为256x256的名人脸。

相比之下,高效地对抗生成网络采用类似的人脸数据库,使用8个GPU、约4600万个参数训练,历时4天后生成了像素为1024x1024图像。粗略地说,流模型比生成对抗网络多花费了17倍的GPU天数和4倍的参数来生成图像,但其像素却降低了16倍。这一对比并不完美。例如,流模型也可以用更好的技术方法来提高,但是这些方法能让你有不同的感悟。

为什么流模型的效率较低?我们考虑可能是如下两个原因:首先,极大似然训练在计算上比对抗训练更难。特别当训练集的一些元素被生成模型指定为零概率,会受到无比严厉的惩罚!另一方面,生成对抗网络的生成器仅在为训练集元素赋予零概率时而间接受到惩罚,并且这种惩罚不那么严厉。其次,标准化流(Normalizing Flow)可能在表示某些函数时较为低效。6.1节做了一些关于其效果的小实验,但目前我们尚不知道在这个问题是否有深入的分析。

我们已经讨论过生成对抗网络和流模型之间的权衡,那么自回归模型如何?事实证明,自回归模型可以表示为不可并行化的流模型(因为它们都是可逆的)。在这种情况下,可并行化的说法有点不精确。我们的意思是流模型的采样通常必须按顺序进行,每次一个观测值。不过,可能有一些方法可以绕过这个限制。事实证明,自回归模型比流模型上在时间和参数上效率更高。因此,生成对抗网络是并行、高效但不可逆的,流模型是可逆、并行但不高效,而自回归模型是可逆的、高效,但非并行的。

回到第一个开放的问题:

解决这个问题的一种方法是研究更多模型,这些模型将是多类模型的混合。有考虑将生成对抗网络和流动模型混合,但我们认为这种方法的研究尚不充分。

我们也不确定极大似然训练是否一定比生成对抗网络训练更难。确实,在生成对抗网络训练损失下,没有明确禁止在训练数据上设置一些零质量的数据,但是如果生成器这么做了,那么强大的鉴别器将能够做得更好。因此,看起来生成对抗网络似乎在实践中会学习低支持的分布。

最后,我们怀疑流模型在每个参数上的表达能力上不如任意解码器函数,我们还认为这在一些假设条件下是可以被证明的。

生成对抗网络模型可以对哪种分布进行建模?

大多数生成对抗网络的研究侧重于图像合成。人们通常使用深度学习社区中几个标准的图像数据集上训练生成对抗网络:MNIST、CIFAR-10、STL-10、CelebA、和ImageNet。

关于这些数据集中哪一个是“最容易建模”的数据,有一些观点认为MNIST和CelebA被认为比ImageNet、CIFAR-10或STL-10更容易,因为它们“非常常规”。另有人认为,“大量的类别使生成对抗网络很难训练ImageNet图片”。这些结果是有事实证明的,即CelebA上的最先进图像合成模型生成的图像似乎比ImageNet上的最先进图像合成模型更令人信服。

然而,我们必须通过复杂的实践来得出这些结论,并试图在更大,更复杂的数据集上训练生成对抗网络。我们特别研究了生成对抗网络如何对恰好用于物体识别的数据集进行处理。

与任何科学一样,我们希望能够有一个简单的理论来解释我们的实验观察结果。理想情况下,我们可以查看数据集,在不训练生成模型的情况下进行一些计算,然后说“此数据集对于生成对抗网络建模比变分自编码器容易”。我们在此已经取得了一些进展,但我们认为还有可更多的工作需要做。现在的问题是:

我们也可能会问以下相关问题:“给分布建模”是什么意思?我们是否对低支持率表示满意,还是需要真正的密度模型?是否存在生成对抗网络永远无法学习建模的分布?对于某些合理的资源消耗模型,是否存在理论上生成对抗网络可学习,但是实际上并不能有效学习的分布?对于生成对抗网络而言,这些问题的答案是否与其他生成模型的有所不同?

我们提出了回答这些问题的两种策略:

合成数据集-我们可以研究合成数据集,以探讨哪些特征会影响其可学习性。例如,作者创建了合成三角形数据集。我们认为这方面尚未被探索。合成数据集甚至可以根据关注的数量(例如连通性或平滑性)进行参数化,以便进行系统研究。这种数据集也可用于研究其他类型的生成模型。

修改现有理论结果-我们可以采用现有的理论结果并尝试修改假设,以考虑数据集的不同属性。例如,我们可以获得适用于给定单峰数据分布的生成对抗网络的结果,并查看当数据分布变为多峰时会发生什么情况。

我们如何在图像合成外扩展生成对抗网络的应用?

除了图像翻译和迁移学习等应用,大多数生成对抗网络的成功都是在图像合成中取得的。尝试在图像领域外使用生成对抗网络,主要集中于以下三个领域:

文本-文本的离散性使得我们难以应用生成对抗网络。这是因为生成对抗网络依赖将鉴别器中的信号通过生成的文本反向传播到发生器。解决这一困难有两种方法。第一种是仅对离散数据的连续表示进行生成对抗网络行为。第二种是使用实际离散模型,并尝试使用梯度估计训练生成对抗网络。还有其它更复杂的改进方法,但据我们所知,没有一种方法的结果能与基于似然的语言模型相比较。

结构化数据-那么其他非欧几里得的结构化数据,如图的应用会怎样?这类数据的研究称为几何深度学习。生成对抗网络在这里取得的成果有限,但其他深度学习技术也是如此,因此很难判断生成对抗网络在这里能发挥多大作用。我们尝试在这个领域中使用生成对抗网络,使发生器(和鉴别器)随机游走(随机行走等是指基于过去的表现,无法预测将来的发展步骤和方向。),目的是尽量类似于从源图取样的随机游走。

音频-音频是生成对抗网络最可能像图像应用那样大获成功的领域。首次将生成对抗网络应用于无监督音频合成的重大尝试是,作者在处理音频数据时做了各种特殊宽松设置。最近的研究表明,生成对抗网络在某些感知指标上甚至能优于自回归模型。

尽管进行了这些尝试,图像显然是生成对抗网络应用最容易的领域。这使得我们思考以下问题:

扩展到其他领域是需要新的训练技术,还是仅仅需要在每个领域更好的隐式先验信息

我们期望生成对抗网络最终在其他连续数据上能实现类似图像合成水平的成功,但它需要更好的隐式先验信息。要找到这些先验信息,就需要认真思考什么是合理的、并在特定领域计算上是可行的。

对于结构化数据或不连续数据,我们尚不能确定。一种方法是使发生器和鉴别器都成为经过强化学习训练的代理。但要使这种方法起作用可能需要大规模的计算资源。最后,这个问题可能只需要基础研究的进展就能解决。

关于生成对抗网络训练的全局收敛,我们该作何评价?

训练生成对抗网络与训练其他神经网络不同,因为我们同时优化发生器和辨别器以达到相反的目的。在某些假设下,该同步优化是局部渐近稳定的。

不幸的是,我们很难证明一般情况下的令人感兴趣的信息。这是因为鉴别器/发生器的损失是其参数的非凸函数。但所有神经网络模型都存在此问题!我们希望能以某种方式来解决同步优化产生的问题。这促使我们开始思考以下问题:

我们在这个问题上得到了突出进展。广义而言,现有3种技术,所有这些技术均呈现出了有前景的成果,但均未研究完成:

简化假设-第一种策略是简化关于发生器和鉴别器的假设。例如,如果采用特殊技术和一些额外假设进行优化,则可以证明简化的LGQ GAN(线性发生器、高斯数据和二次判别器)能够全局收敛。如果逐渐放宽这些假设,结果可能会很可观。例如,我们可以远离单峰分布。这是很自然的就能想到的研究方式,因为“模式塌陷”是标准GAN的常见问题。

使用常规神经网络技术-第二种策略是应用用于分析常规神经网络(也是非凸型)的技术来回答有关生成对抗网络收敛的问题。例如,有人认为深度神经网络的非凸性不是问题,因为随着网络越来越大,损失函数的较差局部极小值会在指数变化中渐渐被忽略。该分析能否“引入生成对抗网络中?事实上,对用作分类器的深部神经网络进行分析,并观察其是否适用于生成对抗网络,似乎是一种具有普适性的启发方法。

博弈论-最终策略是使用博弈论的概念对生成对抗网络训练建模。这些技术产生了可证明收敛到某种近似纳什均衡的训练过程,但却使用了不合理的大资源约束。在这种情况下,下一步的工作是尝试减少这些资源限制。

我们应如何评估生成对抗网络,又该在何时使用它们?

在评估生成对抗网络方面目前有很多方案,但几乎没有共识。建议包括:

Inception Score and FID——这两个因素都使用预训练的图像分类器,并且都有已知的问题。常见批评是,这些因素衡量的是“样本质量”,而不是“样本多样性”。

MS-SSIM——使用MS-SSIM来单独评估多样性,但这种技术存在一些问题,而且还没有真正广泛使用。

AIS——在生成对抗网络输出上建立高斯观测模型,并使用退火算法重要性采样来预估该模型下的对数似然,但如果生成对抗网络发生器也是流模型的话,以这种方式计算的估计就是不准确的了。

几何评分——计算生成的数据流形的几何特性,并将这些特性与实际数据进行比较。

精确性和召回——尝试测量生成对抗网络的“精确性”和“召回率”。

技能等级——表明训练过的生成对抗网络鉴别器可以包含有用的信息,以便进行评估。

这些只是大家提议的生成对抗网络评估方案的一小部分。虽然IS和FID相对比较流行,但是生成对抗网络评估问题显然还未解决。最后,我们认为“如何评价生成对抗网络”这一问题源于“何时使用生成对抗网络”这一问题。因此,我们将这两个问题合并为一个问题:

我们应该用生成对抗网络做什么?如果你想要的是一个真实的密度模型,生成对抗网络可能不是最好的选择。现在有很好的实验证据表明,生成对抗网络只能学习目标数据集的“低支持度”表示,这意味着生成对抗网络测试集的绝大部分(隐含地)被指定为零概率。

与其担心太多这个方面的事情,我们认为把生成对抗网络的研究重点放在那些好的甚至有用的任务上更有意义。生成对抗网络很可能非常适合感知任务,图像合成、图像转换、图像填充和属性操作等图形应用程序都均属于这一概念。

我们应该如何评价这些感知任务上的生成对抗网络?理想情况下,我们只需要一个测试评判员,但这非常昂贵。一个便宜的测试评论员只需要看分类器是否可以区分样本中的真实和虚假。这叫做分类器双样本测试(C2STs)。双样本测试的主要问题是,哪怕发生器有一个小小的缺陷(比如说是样本的系统性),它都会严重影响评估。

理想情况下,我们会有一个不受单一因素决定的整体评估。一种方法可能让判别器对其显性缺陷视而不见,但是一旦我们这样做了,其他一些缺陷就有可能占主导地位,我们就又需要一个新的判别器,等等。如果我们反复这样做,我们可以得到一种“格兰姆-施密特步骤”,该步骤创建一个写有最重要的缺陷和忽略它们的判别器的有序列表。也许这可以通过在判别器激活值上进行PCA(主成分分析),以及逐步剔除高方差成份来实现。

最后,我们可以在不考虑费用的情况下人为评估。这能够验证我们真正关心的事情。另外,我们可以通过预测人类的答案、只在预测不确定时与真人互动这种方法来降低成本。

生成对抗网络的训练是如何调整批量数据的Large。

较大的批量数据(minibatch)有助于扩大图像分类,那么它们也能帮助我们扩大生成对抗网络吗?对于有效地使用高度类似的硬件加速器,较大的批量数据可能尤其重要。

乍一看,似乎答案应该是赞同,毕竟大多数生成对抗网络中的鉴别器只是一个图像分类器。如果在梯度噪声上遇到障碍,更多的批处理(batch)可以加速训练。然而,生成对抗网络有一个分类器没有的障碍:训练过程可能会出现偏差。所以,我们可以提出一些问题:

有证据表明,增加批训练的数量可以提高定量结果并缩短训练时间。如果这种现象很鲁棒,那就表明梯度噪声是一个主导因素。然而,这一点还没有得到系统的研究,所以我们相信答案依然是开放的。

其它的训练过程能更好地利用大批量批处理吗?理论上,最佳传输生成对抗网络比普通生成对抗网络的收敛性更好,但由于它尝试将批处理的样本和训练数据相对应地对齐,所以需要较大的批处理量。因此,它似乎很有希望成为大批量处理的备选项。

最后,异步SGD可能成为充分利用新硬件的好选择。在此设置中,限制因素主要是得根据之前的参数来计算梯度更新。但是,GAN实际上应该是受益于对之前参数的训练,所以我们可能会问异步SGD是否以一种特殊的方式与生成对抗网络训练模型相互作用的。

对抗生成网络和对抗样本的关系是怎样的?

众所周知,图像分类器会受到对抗样本的攻击:也就是人类无法察觉的干扰,这些干扰添加到图像中时会导致分类器错误输出。我们还知道,分类问题通常是可以有效地学习的,但难以进行可靠的指数方式学习。

由于生成对抗网络鉴别器是一种图像分类器,所以人们可能会担心它遇到对抗样本。尽管有大量关于生成对抗网络和对抗样本的文献,但它们之间似乎没有多少联系。因此,我们可以问这样一个问题:

我们可以从何开始考虑这个问题呢?我们先假设一个固定的鉴别器为D。如果有一个生成器得到的样本G(z) 被认为是假,而一个小的干扰项p,比如 G(z) + p被认为是真,那么这里将会存在一个对抗样本D。对于生成对抗网络,我们关注的则是,生成器的梯度更新将生成一个新的生成器 G’,满足G’(z) = G(z) + p。

这种担心现实吗?这说明对生成模型的蓄意攻击可能会起作用,但我们更担心的是某些称为“意外攻击”的东西。我们有理由相信这些意外攻击存在的可能性较小。首先,生成器只允许在鉴别器再次更新之前进行一次梯度更新;相反,当前的对抗样本通常会进行数十次的更新。

第二,根据先验的批处理样本,发生器进行了优化,而它的批处理样本在每次梯度步骤中都是不同的。最后,优化是在生成器的参数下,而不是像素下进行的。然而,这些论点中没有一个能够真正排除产生对抗样本的发生器。我们认为这是一个意义重大的课题,有待进一步探索。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 图像
    +关注

    关注

    2

    文章

    1083

    浏览量

    40410
  • GaN
    GaN
    +关注

    关注

    19

    文章

    1917

    浏览量

    72943

原文标题:关于GAN的灵魂七问

文章出处:【微信号:smartman163,微信公众号:网易智能】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    Llama 3 模型与其他AI工具对比

    Llama 3模型与其他AI工具的对比可以从多个维度进行,包括但不限于技术架构、性能表现、应用场景、定制化能力、开源与成本等方面。以下是对Llama 3模型与其他一些主流AI工具的对比
    的头像 发表于 10-27 14:37 297次阅读

    声智完成多项生成式算法和大模型服务备案

    2024年7月20日,北京声智科技有限公司依据国家《生成式人工智能服务管理暂行办法》,顺利完成了壹元大模型生成式人工智能(大语言模型)服务上线备案。
    的头像 发表于 07-23 15:25 593次阅读
    声智完成多项<b class='flag-5'>生成</b>式算法和大<b class='flag-5'>模型</b>服务备案

    生成对抗网络(GANs)的原理与应用案例

    生成对抗网络(Generative Adversarial Networks,GANs)是一种由蒙特利尔大学的Ian Goodfellow等人在2014年提出的深度学习算法。GANs通过构建两个
    的头像 发表于 07-09 11:34 778次阅读

    如何用C++创建简单的生成式AI模型

    生成式AI(Generative AI)是一种人工智能技术,它通过机器学习模型和深度学习技术,从大量历史数据中学习对象的特征和规律,从而能够生成全新的、完全原创的内容,包括文本、图像、音频和视频等。与传统的基于规则或模板的
    的头像 发表于 07-05 17:53 740次阅读

    生成式AI与神经网络模型的区别和联系

    生成式AI与神经网络模型是现代人工智能领域的两个核心概念,它们在推动技术进步和应用拓展方面发挥着至关重要的作用。本文将详细探讨生成式AI与神经网络
    的头像 发表于 07-02 15:03 579次阅读

    生成式 AI 进入模型驱动时代

    随着ChatGPT和大型语言模型(LLM)呈现爆炸式增长,生成式人工智能(GenerativeAI)成为近来的一大热词。由此引发了一场争论:哪种AI模型使用的训练参数最多?与此同时,更多
    的头像 发表于 04-13 08:12 485次阅读
    <b class='flag-5'>生成</b>式 AI 进入<b class='flag-5'>模型</b>驱动时代

    深度学习生成对抗网络(GAN)全解析

    GANs真正的能力来源于它们遵循的对抗训练模式。生成器的权重是基于判别器的损失所学习到的。因此,生成器被它生成的图像所推动着进行训练,很难知道生成
    发表于 03-29 14:42 4340次阅读
    深度学习<b class='flag-5'>生成对抗</b><b class='flag-5'>网络</b>(GAN)全解析

    KOALA人工智能图像生成模型问世

    近日,韩国科学团队宣布研发出名为 KOALA 的新型人工智能图像生成模型,该模型在速度和质量上均实现了显著突破。KOALA 能够在短短 2 秒内生成高质量图片,同时大幅降低了对硬件的需
    的头像 发表于 03-05 10:46 730次阅读

    谷歌Gemini AI模型因人物图像生成问题暂停运行

    据报道,部分用户发现Gemini生成的图片存在明显错误,如特斯拉创始人和其他名人变成了黑人模样。谷歌已决定暂停该模型的人物图像生成功能以待改善。
    的头像 发表于 02-25 09:59 544次阅读

    生成式人工智能和感知式人工智能的区别

    生成新的内容和信息的人工智能系统。这些系统能够利用已有的数据和知识来生成全新的内容,如图片、音乐、文本等。生成式人工智能通常基于深度学习技术,如生成对抗
    的头像 发表于 02-19 16:43 1516次阅读

    Stability AI试图通过新的图像生成人工智能模型保持领先地位

    Stability AI的最新图像生成模型Stable Cascade承诺比其业界领先的前身Stable Diffusion更快、更强大,而Stable Diffusion是许多其他文本到图像
    的头像 发表于 02-19 16:03 889次阅读
    Stability AI试图通过新的图像<b class='flag-5'>生成</b>人工智能<b class='flag-5'>模型</b>保持领先地位

    谷歌推出能一次生成完整视频的扩散模型

    该公司指出,当前众多文生视频模型普遍存在无法生成长时、高品质及动作连贯的问题。这些模型往往采用“分段生成视频”策略,即先生成少量关键帧,再借
    的头像 发表于 01-29 11:14 488次阅读

    labview的opc生成配置文件

    的数据交互和通信。在 LabVIEW 中生成 OPC 配置文件有助于实现与其他设备的数据传输和共享,本文将详细介绍如何生成 OPC 配置文件。 首先,在 LabVIEW 中生成 OPC
    的头像 发表于 12-26 17:57 1701次阅读

    代码生成:基于 AI 大模型的挑战与前景

    使用AI通用模型来完成代码生成这类非常具体的任务可能会带来问题。人工智能生成的代码就像是陌生人的代码,它们可能并不符合你的代码质量标准。这种情况下,创建专业或专用的模型不失为一条出路
    的头像 发表于 11-26 08:05 710次阅读
    代码<b class='flag-5'>生成</b>:基于 AI 大<b class='flag-5'>模型</b>的挑战与前景

    从HumanEval到CoderEval: 你的代码生成模型真的work吗?

    项目中的选取了代码生成任务来构建CoderEval,并根据对外部依赖的程度为标准将这些任务分为6个等级、根据生成的目标分为3类生成任务,以更多维地评估不同大模型在不同上下文场景中的
    的头像 发表于 11-25 15:55 1640次阅读
    从HumanEval到CoderEval: 你的代码<b class='flag-5'>生成</b><b class='flag-5'>模型</b>真的work吗?