0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

PyTorch教程-10.8。波束搜索

jf_pJlTbmA9 来源:PyTorch 作者:PyTorch 2023-06-05 15:44 次阅读

在10.7 节中,我们介绍了编码器-解码器架构,以及端到端训练它们的标准技术。然而,当谈到测试时间预测时,我们只提到了 贪心策略,我们在每个时间步选择下一个预测概率最高的标记,直到在某个时间步,我们发现我们已经预测了特殊的序列结尾“”标记。在本节中,我们将从形式化这种贪婪搜索策略开始,并确定从业者往往会遇到的一些问题。随后,我们将该策略与两种替代方案进行比较:穷举搜索(说明性但不实用)和 波束搜索(实践中的标准方法)。

让我们从设置我们的数学符号开始,借用第 10.7 节中的约定。随时步t′,解码器输出表示词汇表中每个标记出现在序列中的概率的预测(可能的值 yt′+1, 以先前的标记为条件 y1,…,yt′和上下文变量c,由编码器产生以表示输入序列。为了量化计算成本,表示为Y输出词汇表(包括特殊的序列结束标记“”)。我们还将输出序列的最大标记数指定为 T′. 我们的目标是搜索所有的理想输出 O(|Y|T′)可能的输出序列。请注意,这稍微高估了不同输出的数量,因为在“”标记出现之后没有后续标记。然而,出于我们的目的,这个数字大致反映了搜索空间的大小。

10.8.1。贪心搜索

考虑第 10.7 节中的简单贪婪搜索策略 。在这里,随时步t′,我们只需从中选择条件概率最高的标记 Y, IE,

(10.8.1)yt′=argmaxy∈YP(y∣y1,…,yt′−1,c).

一旦我们的模型输出“”(或者我们达到最大长度 T′) 输出序列完成。

这个策略看似合理,其实还不错!考虑到它在计算上的要求是多么的低,你很难获得更多的收益。然而,如果我们暂时搁置效率,搜索最有可能的序列似乎更合理,而不是(贪婪选择的)最有可能的标记序列。事实证明,这两个对象可能完全不同。最可能的序列是最大化表达式的序列 ∏t′=1T′P(yt′∣y1,…,yt′−1,c). 在我们的机器翻译示例中,如果解码器真正恢复了潜在生成过程的概率,那么这将为我们提供最有可能的翻译。不幸的是,不能保证贪心搜索会给我们这个序列。

让我们用一个例子来说明它。假设输出字典中有四个标记“A”、“B”、“C”和“”。在 图10.8.1中,每个时间步下的四个数字分别代表在该时间步生成“A”、“B”、“C”、“”的条件概率。

poYBAGR9N4-AaGx4AAET1yiKAhk378.svg

图 10.8.1在每个时间步,贪婪搜索选择条件概率最高的标记。

在每个时间步,贪心搜索选择条件概率最高的标记。因此,将预测输出序列“A”、“B”、“C”和“”(图 10.8.1)。这个输出序列的条件概率是 0.5×0.4×0.4×0.6=0.048.

接下来,让我们看一下图 10.8.2中的另一个例子。与图 10.8.1不同,在时间步 2 中,我们选择图 10.8.2中的标记“C” ,它具有第二高的条件概率。

pYYBAGR9N5GACDvWAAEKuTR1cgg914.svg

图 10.8.2每个时间步下的四个数字代表在该时间步生成“A”、“B”、“C”和“”的条件概率。在时间步 2,选择具有第二高条件概率的标记“C”。

由于时间步3所基于的时间步1和2的输出子序列已经从图10.8.1中的“A”和“B”变为图10.8.2 中的“A”和“C” ,图 10.8.2中每个标记在时间步长 3 的条件概率也发生了变化 。假设我们在时间步 3 选择标记“B”。现在时间步 4 以前三个时间步“A”、“C”和“B”的输出子序列为条件,这与“A”不同、“B”、“C”在图 10.8.1中。因此,图 10.8.2中第 4 步生成每个 token 的条件概率 也与 图 10.8.1不同. 因此, 图 10.8.2中输出序列“A”、“C”、“B”和“”的条件概率为 0.5×0.3×0.6×0.6=0.054,大于图 10.8.1中的贪心搜索。在本例中,贪心搜索得到的输出序列“A”、“B”、“C”、“”并不是最优序列。

10.8.2。穷举搜索

如果目标是获得最可能的序列,我们可以考虑使用 穷举搜索:穷举所有可能的输出序列及其条件概率,然后输出得分最高的预测概率。

虽然这肯定会给我们想要的东西,但它的计算成本却高得令人望而却步 O(|Y|T′),序列长度呈指数增长,词汇量很大。例如,当|Y|=10000和T′=10,我们需要评估1000010=1040序列。与实际应用程序相比,这些数字很小,但已经超出了任何可预见的计算机的能力。另一方面,贪心搜索的计算成本是 O(|Y|T′): 奇迹般地便宜,但远非最佳。例如,当|Y|=10000和 T′=10, 我们只需要评估10000×10=105 序列。

10.8.3。波束搜索

您可以将序列解码策略视为位于频谱上, 波束搜索在贪婪搜索的效率和穷举搜索的最优性之间做出折衷。波束搜索的最直接版本的特征在于单个超参数, 波束大小,k. 在时间步 1,我们选择k具有最高预测概率的标记。他们每个人都将是第一个令牌k候选输出序列,分别。在随后的每个时间步,基于k上一时间步的候选输出序列,我们继续选择k具有最高预测概率的候选输出序列 k|Y|可能的选择。

pYYBAGR9N5SABB6WAAIAzbiYB-I627.svg

图 10.8.3束搜索过程(束大小:2,输出序列的最大长度:3)。候选输出序列是A, C,AB,CE,ABD, 和CED.

图 10.8.3举例说明了 beam search 的过程。假设输出词汇表只包含五个元素:Y={A,B,C,D,E},其中之一是“”。令波束大小为 2,输出序列的最大长度为 3。在时间步长 1,假设具有最高条件概率的标记P(y1∣c)是A 和C. 在时间步 2,对于所有y2∈Y,我们计算

(10.8.2)P(A,y2∣c)=P(A∣c)P(y2∣A,c),P(C,y2∣c)=P(C∣c)P(y2∣C,c),

并在这十个值中选择最大的两个,比如说 P(A,B∣c)和P(C,E∣c). 然后在第 3 步,对于所有y3∈Y, 我们计算

(10.8.3)P(A,B,y3∣c)=P(A,B∣c)P(y3∣A,B,c),P(C,E,y3∣c)=P(C,E∣c)P(y3∣C,E,c),

并在这十个值中选择最大的两个,比如说 P(A,B,D∣c)和 P(C,E,D∣c).结果,我们得到六个候选输出序列:(i)A; (二)C; (三)A, B; (四)C,E; (五)A,B, D; (六)C,E,D.

最后,我们根据这六个序列得到最终候选输出序列的集合(例如,丢弃包括“”和“”之后的部分)。然后我们选择以下得分最高的序列作为输出序列:

(10.8.4)1Lαlog⁡P(y1,…,yL∣c)=1Lα∑t′=1Llog⁡P(yt′∣y1,…,yt′−1,c),

在哪里L是最终候选序列的长度, α通常设置为 0.75。由于较长的序列在(10.8.4)的总和中具有更多的对数项,因此项Lα在分母中惩罚长序列。

beam search的计算成本是 O(k|Y|T′). 这个结果介于贪婪搜索和穷举搜索之间。贪心搜索可以看作是波束大小为 1 时出现的波束搜索的特例。

10.8.4。概括

序列搜索策略包括贪婪搜索、穷举搜索和波束搜索。波束搜索通过其对波束大小的灵活选择,在准确性与计算成本之间进行权衡。

10.8.5。练习

我们可以将穷举搜索视为一种特殊类型的波束搜索吗?为什么或者为什么不?

在10.7 节的机器翻译问题中应用集束搜索 。光束大小如何影响翻译结果和预测速度?

在第 9.5 节中,我们使用语言建模来生成遵循用户提供的前缀的文本。它使用哪种搜索策略?你能改进它吗?

Discussions

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 解码器
    +关注

    关注

    9

    文章

    1129

    浏览量

    40671
  • pytorch
    +关注

    关注

    2

    文章

    803

    浏览量

    13142
收藏 人收藏

    评论

    相关推荐

    Pytorch模型训练实用PDF教程【中文】

    ?模型部分?还是优化器?只有这样不断的通过可视化诊断你的模型,不断的对症下药,才能训练出一个较满意的模型。本教程内容及结构:本教程内容主要为在 PyTorch 中训练一个模型所可能涉及到的方法及函数,并且
    发表于 12-21 09:18

    Pytorch自动求导示例

    Pytorch自动微分的几个例子
    发表于 08-09 11:56

    Pytorch入门之的基本操作

    Pytorch入门之基本操作
    发表于 05-22 17:15

    PyTorch如何入门

    PyTorch 入门实战(一)——Tensor
    发表于 06-01 09:58

    PyTorch10的基础教程

    PyTorch 10 基础教程(4):训练分类器
    发表于 06-05 17:42

    什么是波束赋形

    波束赋形”这个概念可以拆分成“波束”和“赋形”这两个词来理解。“波束”里的波字可以认为是电磁波,束字的本意是“捆绑”,因此波束的含义是捆绑在一起集中传播的电磁波;而赋形可以简单地理解
    发表于 06-20 07:50

    如何去设计高速实时波束形成器系统?

    高速实时波束形成器是什么?为什么要去设计高速实时波束形成器系统?如何去设计高速实时波束形成器系统?
    发表于 04-13 06:08

    Pytorch AI语音助手

    想做一个Pytorch AI语音助手,有没有好的思路呀?
    发表于 03-06 13:00

    如何安装TensorFlow2 Pytorch

    如何安装TensorFlow2 Pytorch
    发表于 03-07 07:32

    通过Cortex来非常方便的部署PyTorch模型

    该框架的 python 风格,其学习曲线的温和性,以及它对快速和简单原型的方便实现,使 PyTorch 明显成为研究人员的最爱。因此,它正在推动一些最酷的机器学习项目:Transformers
    发表于 11-01 15:25

    如何往星光2板子里装pytorch

    如题,想先gpu版本的pytorch只安装cpu版本的pytorch,pytorch官网提供了基于conda和pip两种安装方式。因为咱是risc架构没对应的conda,而使用pip安装提示也没有
    发表于 09-12 06:30

    LMS自适应波束形成方法

    分析了影响波束形成性能的因素,通过计算机仿真实验验证了搜索步长、迭代次数、快拍对波束形成性能的影响,并比较了两种方法的收敛速度、稳态误差和抗干扰性能。
    发表于 11-11 14:33 54次下载
    LMS自适应<b class='flag-5'>波束</b>形成方法

    基于PyTorch的深度学习入门教程之PyTorch简单知识

    本文参考PyTorch官网的教程,分为五个基本模块来介绍PyTorch。为了避免文章过长,这五个模块分别在五篇博文中介绍。 Part1:PyTorch简单知识 Part2:PyTorch
    的头像 发表于 02-16 15:20 2215次阅读

    PyTorch教程10.8波束搜索

    电子发烧友网站提供《PyTorch教程10.8波束搜索.pdf》资料免费下载
    发表于 06-05 15:09 0次下载
    <b class='flag-5'>PyTorch</b>教程<b class='flag-5'>10.8</b>之<b class='flag-5'>波束</b><b class='flag-5'>搜索</b>

    PyTorch教程19.3之异步随机搜索

    电子发烧友网站提供《PyTorch教程19.3之异步随机搜索.pdf》资料免费下载
    发表于 06-05 10:43 0次下载
    <b class='flag-5'>PyTorch</b>教程19.3之异步随机<b class='flag-5'>搜索</b>