0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

如何改进和加速扩散模型采样的方法1

星星科技指导员 来源:NVIDIA 作者:NVIDIA 2022-05-07 14:25 次阅读

这是一系列关于 NVIDIA 研究人员如何改进和加速扩散模型采样的方法的一部分,扩散模型是一种新颖而强大的生成模型。 Part 2 介绍了克服扩散模型中缓慢采样挑战的三种新技术。

生成模型是一类机器学习方法,它可以学习所训练数据的表示形式,并对数据本身进行建模。它们通常基于深层神经网络。相比之下,判别模型通常预测给定数据的单独数量。

生成模型允许您合成与真实数据不同但看起来同样真实的新数据。设计师可以在汽车图像上训练生成性模型,然后让生成性人工智能计算出具有不同外观的新颖汽车,从而加速艺术原型制作过程。

深度生成学习已成为机器学习领域的一个重要研究领域,并有许多相关应用。生成模型广泛用于图像合成和各种图像处理任务,如编辑、修复、着色、去模糊和超分辨率。

生成性模型有可能简化摄影师和数字艺术家的工作流程,并实现新水平的创造力。类似地,它们可能允许内容创建者高效地为游戏、动画电影或 metaverse 生成虚拟 3D 内容。

基于深度学习的语音和语言合成已经进入消费品领域。医学和医疗保健等领域也可能受益于生成性模型,例如生成对抗疾病的分子候选药物的方法。

当神经网络被用于不同的生成性学习任务时,尤其是对于不同的生成性学习任务,神经网络和神经网络也可以被用于合成。

生成性学习三位一体

为了在实际应用中得到广泛采用,生成模型在理想情况下应满足以下关键要求:

High-quality sampling :许多应用程序,尤其是那些直接与用户交互的应用程序,需要高生成质量。例如,在语音生成中,语音质量差是很难理解的。类似地,在图像建模中,期望的输出在视觉上与自然图像无法区分。

模式覆盖和样本多样性 :如果训练数据包含复杂或大量的多样性,一个好的生成模型应该在不牺牲生成质量的情况下成功捕获这种多样性。

快速且计算成本低廉的采样 :许多交互式应用程序需要快速生成,例如实时图像编辑。

虽然目前大多数深层生成性学习方法都注重高质量的生成,但第二和第三个要求也非常重要。

忠实地表示数据的多样性对于避免数据分布中遗漏少数模式至关重要。这有助于减少学习模型中不希望出现的偏差。

另一方面,在许多应用程序中,数据分布的长尾巴特别有趣。例如,在交通建模中,人们感兴趣的正是罕见的场景,即与危险驾驶或事故相对应的场景。

降低计算复杂度和采样时间不仅可以实现交互式实时应用。它还通过降低发电所需的总功率使用量,减少了运行昂贵的深层神经网络(发电模型的基础)所造成的环境足迹。

在本文中,我们将这三个需求带来的挑战定义为 生成性学习三位一体 ,因为现有方法通常会做出权衡,无法同时满足所有需求。

pYYBAGJ2ENyAeWg5AAEcsXtThOM930.png

图 1 生成性学习三位一体

基于扩散模型的生成性学习

最近,扩散模型已经成为一种强大的生成性学习方法。这些模型,也被称为去噪扩散模型或基于分数的生成模型,表现出惊人的高样本质量,通常优于生成性对抗网络。它们还具有强大的模式覆盖和样本多样性。

扩散模型已经应用于各种生成任务,如图像、语音、三维形状和图形合成。

扩散模型包括两个过程:正向扩散和参数化反向扩散。

前向扩散过程通过逐渐扰动输入数据将数据映射为噪声。这是通过一个简单的随机过程正式实现的,该过程从数据样本开始,使用简单的高斯扩散核迭代生成噪声较大的样本。也就是说,在这个过程的每一步,高斯噪声都会逐渐添加到数据中。

第二个过程是一个参数化的反向过程,取消正向扩散并执行迭代去噪。这个过程代表数据合成,并经过训练,通过将随机噪声转换为真实数据来生成数据。它也被正式定义为一个随机过程,使用可训练的深度神经网络对输入图像进行迭代去噪。

正向和反向过程通常使用数千个步骤来逐步注入噪声,并在生成过程中进行去噪。

poYBAGJ2EN2AMQOEAAEBEFupDWg453.png

图 2 扩散模型处理数据和噪声之间的移动

图 2 显示,在扩散模型中,固定前向过程以逐步方式逐渐扰动数据,使其接近完全随机噪声。学习一个参数化的反向过程来执行迭代去噪,并从噪声中生成数据,如图像。

在形式上,通过x0表示一个数据点,例如图像,通过xt表示时间步长t的扩散版本,正向过程由以下公式定义:

虽然离散时间扩散模型和连续时间扩散模型看起来可能不同,但它们有一个几乎相同的生成过程。事实上,很容易证明离散时间扩散模型是连续时间模型的特殊离散化。

在实践中使用连续时间扩散模型基本上要容易得多:

它们更通用,可以通过简单的时间离散化转换为离散时间模型。

它们是用 SDE 描述的, SDE 在各个科学领域都得到了很好的研究。

生成性 SDE 可以使用现成的数值 SDE 解算器进行求解。

它们可以转换为相关的常微分方程( ODE ),这些方程也得到了很好的研究,并且易于使用。

如前所述,扩散模型通过遵循反向扩散过程生成样本,该过程将简单的基本分布(通常为高斯分布)映射到复杂的数据分布。在生成 SDE 表示的连续时间扩散模型中,由于神经网络逼近分数函数

latex.php?latex=%5Cnabla_%7Bx_%7Bt%7D%7D%5Clog+p_%7Bt%7D%28x_%7Bt%7D%29&bg=ffffff&fg=000&s=0&c=20201002

,这种映射通常很复杂。

用数值积分技术解决这个问题需要调用 1000 次深层神经网络来生成样本。正因为如此,扩散模型在生成样本时通常很慢,需要几分钟甚至几小时的计算时间。这与生成性对抗网络( GANs )等竞争性技术形成了鲜明对比,后者只需对神经网络进行一次调用即可生成样本。

总结

尽管扩散模型实现了较高的样本质量和多样性,但不幸的是,它们在采样速度方面存在不足。这限制了扩散模型在实际应用中的广泛采用,并导致了从这些模型加速采样的研究领域的活跃。在 Part 2 中,我们回顾了 NVIDIA 为克服扩散模型的主要局限性而开发的三种技术。

关于作者

Arash Vahdat 是 NVIDIA research 的首席研究科学家,专攻计算机视觉和机器学习。在加入 NVIDIA 之前,他是 D-Wave 系统公司的研究科学家,从事深度生成学习和弱监督学习。在 D-Wave 之前,阿拉什是西蒙·弗雷泽大学( Simon Fraser University , SFU )的一名研究人员,他领导了深度视频分析的研究,并教授大数据机器学习的研究生课程。阿拉什在格雷格·莫里( Greg Mori )的指导下获得了 SFU 的博士和理学硕士学位,致力于视觉分析的潜变量框架。他目前的研究领域包括深层生成学习、表征学习、高效神经网络和概率深层学习。

Karsten Kreis 是 NVIDIA 多伦多人工智能实验室的高级研究科学家。在加入 NVIDIA 之前,他在 D-Wave Systems 从事深度生成建模工作,并与他人共同创立了变分人工智能,这是一家利用生成模型进行药物发现的初创公司。卡斯滕在马克斯·普朗克光科学研究所获得量子信息理论理学硕士学位,并在马克斯·普朗克聚合物研究所获得计算和统计物理博士学位。目前,卡斯滕的研究重点是开发新的生成性学习方法,以及将深层生成模型应用于计算机视觉、图形和数字艺术等领域的问题。

审核编辑:郭婷

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    5026

    浏览量

    103280
  • 人工智能
    +关注

    关注

    1792

    文章

    47445

    浏览量

    239044
收藏 人收藏

    评论

    相关推荐

    NVIDIA Cosmos世界基础模型平台发布

    NVIDIA 宣布推出NVIDIA Cosmos,该平台由先进的生成式世界基础模型、高级 tokenizer、护栏和加速视频处理管线组成,将推动自动驾驶汽车(AV)和机器人等物理 AI 系统的发展。
    的头像 发表于 01-08 10:39 115次阅读

    基于移动自回归的时序扩散预测模型

    在人工智能领域,目前有很多工作采用自回归方法来模拟或是替代扩散模型,其中视觉自回归建模(Visual AutoRegressive modeling,简称 VAR)就是其中的典型代表,该工作利用自
    的头像 发表于 01-03 14:05 138次阅读
    基于移动自回归的时序<b class='flag-5'>扩散</b>预测<b class='flag-5'>模型</b>

    【「具身智能机器人系统」阅读体验】2.具身智能机器人大模型

    。 多模态融合的创新与突破 机器人控制技术的另一个重要突破在于多模态大模型的应用。相比于仅通过文字进行人机交互的传统方法,现代机器人能够融合视觉、声音、定位等多模态输入信息,为任务执行提供更加全面的感知
    发表于 12-29 23:04

    浅谈加密芯片的一种破解方法和加密方案改进设计

    为了增加加密方案可靠度,设计成让主MCU的芯片序列号ID1、产生的随机数R1和加密芯片的芯片序列号ID2、产生的随机数R2参与计算临时过程秘钥,加密芯片使用秘钥Key对(ID1⊕RAN
    发表于 12-20 15:10

    浙大、微信提出精确反演采样器新范式,彻底解决扩散模型反演问题

    随着扩散生成模型的发展,人工智能步入了属于 AIGC 的新纪元。扩散生成模型可以对初始高斯噪声进行逐步去噪而得到高质量的采样。当前,许多应用
    的头像 发表于 11-27 09:21 204次阅读
    浙大、微信提出精确反演<b class='flag-5'>采样</b>器新范式,彻底解决<b class='flag-5'>扩散</b><b class='flag-5'>模型</b>反演问题

    PyTorch GPU 加速训练模型方法

    在深度学习领域,GPU加速训练模型已经成为提高训练效率和缩短训练时间的重要手段。PyTorch作为一个流行的深度学习框架,提供了丰富的工具和方法来利用GPU进行模型训练。
    的头像 发表于 11-05 17:43 587次阅读

    扩散模型的理论基础

    扩散模型的迅速崛起是过去几年机器学习领域最大的发展之一。在这本简单易懂的指南中,学习你需要知道的关于扩散模型的一切。
    的头像 发表于 10-28 09:30 544次阅读
    <b class='flag-5'>扩散</b><b class='flag-5'>模型</b>的理论基础

    FPGA加速深度学习模型的案例

    FPGA(现场可编程门阵列)加速深度学习模型是当前硬件加速领域的一个热门研究方向。以下是一些FPGA加速深度学习模型的案例: 一、基于FPG
    的头像 发表于 10-25 09:22 273次阅读

    NVIDIA CorrDiff生成式AI模型能够精准预测台风

    在 NVIDIA GPU 上运行的一个扩散模型向天气预报工作者展示了加速计算如何实现新的用途并提升能效。
    的头像 发表于 09-13 17:13 720次阅读

    LLM大模型推理加速的关键技术

    LLM(大型语言模型)大模型推理加速是当前人工智能领域的一个研究热点,旨在提高模型在处理复杂任务时的效率和响应速度。以下是对LLM大模型推理
    的头像 发表于 07-24 11:38 926次阅读

    深度学习模型量化方法

    深度学习模型量化是一种重要的模型轻量化技术,旨在通过减少网络参数的比特宽度来减小模型大小和加速推理过程,同时尽量保持模型性能。从而达到把
    的头像 发表于 07-15 11:01 509次阅读
    深度学习<b class='flag-5'>模型</b>量化<b class='flag-5'>方法</b>

    python训练出的模型怎么调用

    在Python中,训练出的模型可以通过多种方式进行调用。 1. 模型保存与加载 在Python中,训练好的模型需要被保存,以便在其他程序或会话中使用。以下是一些常用的
    的头像 发表于 07-11 10:15 2088次阅读

    如何加速大语言模型推理

    的主要挑战。本文将从多个维度深入探讨如何加速大语言模型的推理过程,以期为相关领域的研究者和开发者提供参考。
    的头像 发表于 07-04 17:32 565次阅读

    谷歌推出AI扩散模型Lumiere

    近日,谷歌研究院重磅推出全新AI扩散模型Lumiere,这款模型基于谷歌自主研发的“Space-Time U-Net”基础架构,旨在实现视频生成的一次性完成,同时保证视频的真实性和动作连贯性。
    的头像 发表于 02-04 13:49 1060次阅读

    加速度传感器的基本力学模型是什么

    和加速度之间的关系。假设加速度传感器的初始位置为xo,速度为vo,加速度为ao。运动学模型可以根据传感器所处的不同运动状态而分为直线运动和曲线运动两种情况。 直线运动 设时间t时刻传感
    的头像 发表于 01-17 11:08 1465次阅读