0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

一文带你了解RNN、LTSM、Seq2Seq、Attention机制

智能生物识别说 来源:快商通AI 作者:快商通AI 2021-09-27 18:03 次阅读

上一章我们详细介绍了小样本做文本分类中的胶囊网络,那么这一章我们就来看看RNN(循环神经网络)。大神们准备好了吗,我们要发车了~

首先就是我们为什么需要RNN?

举个简单的例子,最近娱乐圈顶流明星吴亦凡又出新瓜,大家都吃了咩?(反正小编吃的很饱哈)那么就以我 吃 瓜为例,三个单词标注词性为 我/nn 吃/v 瓜/nn。

那么这个任务的输入就是:

我 吃 瓜 (已经分词好的句子)

这个任务的输出是:

我/nn 吃/v 瓜/nn(词性标注好的句子)

很明显,一个句子中,前一个单词其实对于当前单词的词性预测是有很大影响的,比如预测“瓜”的时候,由于前面的吃是一个动词,那么很显然“瓜”作为名词的概率就会远大于动词的概率,因为动词后面接名词很常见,而动词后面接动词很少见。

所以为了更好的处理序列的信息,解决一些这样类似的问题,我们的RNN就诞生了。

rnn的结构和原理

看完初步的概念我们来深入一点看看RNN的结构和原理。rnn的结构和原理

pYYBAGC4meiAAdlHAABjM2jJoEw935.jpg

刚开始看到这幅图的同学会不会有一点懵懵?没关系,我们来带着解释一遍~

首先通过这副图,就能明白RNN的意义就是每个输出的状态都只由前一时刻的状态和当前时刻的输入来决定。从等式左边的一个环绕箭头就能明白参数是共享的。

一个序列的每个词就是每个时间步,每个词都会对应得到一个hidden_state,并将这个隐藏层状态输入下一个时间步。

最终会得到output和hidden,output是每一步运算的输出,因此output=(seqence_len, batch_size, hidden_size)。hidden_state是每一步的输出,当然有参数来控制可以取最后一步的输出,所以RNN中一般output=hidden。

lstm的结构和原理

聊完一圈RNN之后,我们来看看它的变种兄弟-LSTM吧!

别慌,我说的不是变种成僵尸的那种东东,Lstm为长短期记忆,是在RNN的基础上引入了细胞状态,根据细胞状态可决定哪些状态应该保留下来,哪些状态应该被遗忘,可以在一定程度上解决梯度消失问题。

那么为了能够学习序列关系的长期依赖,Lstm的输出和rnn一样都包含output和hidden,除此之外还有一个cell_state,这个就是学习序列信息lstm与rnn的差异。

在lstm里面理解的就是用“门”结构,来选择信息通过,关键是用了$sigmoid(\cdot)$函数来区分趋于0的和趋于1的特征数据。

遗忘门:通过$f_t=\sigma(W_f \cdot[h_{t-1},x_t] + b_f)$ 来判断隐藏层信息的取舍。

输入门:

poYBAGC4meWADv9WAAAccVYUC9w682.jpg

通过$\tanh(\cdot)$,来将隐藏层状态映射到(-1,1)最后来更新$C_{t-1}$ 到$C_t $

输出门:

pYYBAGC4meyAMy7aAAAWL7NbiQI218.jpg

会发现$f_t、i_t、o_t$的构成是一致的。但是通过不同的权重来学习。因此优化lstm是将遗忘门和输入门合并成了一个更新门,这就是GRU:

可以理解为主要分为两部分,第一部分:

pYYBAGC4me2AOoxXAAASZqSshqY694.jpg

$z_t$表示更新向量,$r_t$表示重置向量,于是在接下来就能够考虑$r_t$与$h_{t-1}$的相关性来去对部分数据进行重置,也就相当于舍弃。实现遗忘门的效果。

第二部分:

poYBAGC4meiAGOzMAAAd9tihyU0202.jpg

很好理解,就可以通过筛选得到的有效的隐藏层信息$\tilde{h}t$和更新向量来获取最终的输出结果$(1-z_t) * h{t-1}$表示对当前一时刻隐藏层状态选择性“遗忘”。$z_t * \tilde{h}_t$就表示对当前序列信息的“记忆”。

sequence-to-sequence的结构和原理

也叫做Encoder-Decoder结构,在encoder和decoder中也都是用序列模型,就是将数据先encode成一个上下文向量context vector,这个context vector可以是1)最后一个隐藏层状态,2)可以是完整的隐藏层输出,3)也可以是对隐藏层输出做激活或者线性变换之后的输出。

之后在decoder中,将context vector作为前一时刻初始化的状态输入从而将语义按监督信息的需要解码。或者将context vector作为decoder每一个时间步的输入。因此会发现seq2seq并不限制输入和输出的序列长度,这就表示应用范围可以很广。

Attention

会发现context vector并不能够包含长句的所有信息,或者说会造成信息的丢失,因此attention机制就是能够向decoder的每一个时间步输入不同的文本信息,提升语义的理解能力。

因为lstm会得到完整的包含每一个时间步的输出得到的ouput和hidden,因此$h_i$和$C_j$的相关性就能够表示在decode第$j$步序列时最关心的文本是那一步的 $h_i $,用 $\alpha_{ij}$来表示。

每一个encoder的hidden单元和每一个decoder的hidden单元做点乘,得到每两个单元之间的相关性,在lstm/rnn之后用attention就是计算hidden和ouput的每个单元之间的相关性,然后做一步$softmax$得到encoder的hidden或者说是lstm的hidden每个单元的attention weights。因此:Attention 无非就是这三个公式:

poYBAGC4meqAKxjvAAAT3nJUrlE172.jpg

从常规的(Q,K,V)的角度来理解,可以如图所示:

pYYBAGC4mfCAE2pwAAApg85OSxU468.jpg

在Attention中$Q$和$K$分别是hidden和output,同样的$V$也是ouput,在self-attention中Q=K=V,并且$\sqrt{d_k}$有些情况下是不会加在attention过程中的。

编辑:jq

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 数据
    +关注

    关注

    8

    文章

    6792

    浏览量

    88723
  • Gru
    Gru
    +关注

    关注

    0

    文章

    12

    浏览量

    7471
收藏 人收藏

    评论

    相关推荐

    智慧公交是什么?带你详解智慧公交的解决方案!

    智慧公交是什么?带你详解智慧公交的解决方案!
    的头像 发表于 11-05 12:26 17次阅读
    智慧公交是什么?<b class='flag-5'>一</b><b class='flag-5'>文</b><b class='flag-5'>带你</b>详解智慧公交的解决方案!

    rnn是什么神经网络

    RNN(Recurrent Neural Network,循环神经网络)是种具有循环连接的神经网络,它能够处理序列数据,并且具有记忆能力。与传统的前馈神经网络(Feedforward Neural
    的头像 发表于 07-05 09:49 512次阅读

    rnn神经网络模型原理

    RNN(Recurrent Neural Network,循环神经网络)是种具有循环结构的神经网络,它能够处理序列数据,具有记忆功能。RNN在自然语言处理、语音识别、时间序列预测等领域有着广泛
    的头像 发表于 07-04 15:40 458次阅读

    RNN神经网络适用于什么

    RNN(Recurrent Neural Network,循环神经网络)是种具有循环结构的神经网络,它可以处理序列数据,具有记忆功能。RNN在许多领域都有广泛的应用,以下是
    的头像 发表于 07-04 15:04 726次阅读

    rnn神经网络基本原理

    RNN(Recurrent Neural Network,循环神经网络)是种具有循环结构的神经网络,它能够处理序列数据,并且能够捕捉时间序列数据中的动态特征。RNN在自然语言处理、语音识别、时间
    的头像 发表于 07-04 15:02 584次阅读

    基于神经网络的呼吸音分类算法

    。因此,seq2seq中的注意力扩展了解码器在序列预测过程中的视野。我们的MASK层依赖于预测的噪声和异常标签,因为它接收来自两个RNN块的梯度。我们进行了额外的实验,以表明具有MASK机制
    发表于 05-31 12:05

    【每周练】盘古1K开发板 练习四:密码锁实验

    错误时显示7777。 SW1- SW4 设置2 位数密码,每两位设置位密码,BM[0:1]设置第位对应BM1 和BM2,BM[2:3]设
    发表于 12-22 18:39

    【先楫HPM5361EVK开发板试用体验】先楫HPM5361EVK开发板 ADC使用

    或等效位数(ENOB)。 可以通过依次配置 SEQ_QUE0 到 SEQ_QUE15 寄存器来指定转换序列的目标输入通道。SEQ_QUE0 [CHAN_NUM] 位域用于配置序列转换触发后的第
    发表于 12-20 23:11

    【每周练】+盘古1K开发板+4.密码锁

    前言 按照要求,应该实现如下功能: 实验目的: 利用按键、拨码开关以及数码管实现种简单的密码锁 实验要求: 拨码开关SW1-SW4 设置 2 位数密码,每两位设置位密码,BM[0:1]设置
    发表于 12-17 17:05

    ad7928采样的时候是如何处理机制的?

    ad7928 采样的时候是如何处理机制的 AD7928Data2.Wriite_SEQ = 0X11; AD7928Data2.DONT_TCARE_9_ADD2 = 0X01
    发表于 12-08 07:36

    带你了解 DAC

    了解 DAC
    的头像 发表于 12-07 15:10 8390次阅读
    <b class='flag-5'>一</b><b class='flag-5'>文</b><b class='flag-5'>带你</b><b class='flag-5'>了解</b> DAC

    了解刚柔结合制造过程

    了解刚柔结合制造过程
    的头像 发表于 12-04 16:22 681次阅读

    了解 PCB 的有效导热系数

    了解 PCB 的有效导热系数
    的头像 发表于 11-24 15:48 1787次阅读
    <b class='flag-5'>一</b><b class='flag-5'>文</b><b class='flag-5'>了解</b> PCB 的有效导热系数

    ADC16 DMA缓冲区最大只能1024位,设置大于1024时,DMA缓冲里的数据打印出来全是0,不知道怎么回事?

    根据例程更改序列采样,利用个定时器定时进行序列采样,自动放入DMA缓冲区,由于需要的通道和数据较多,设置缓冲区大于1024位,现发现当我设置大于1024,例如2048位的时候,Printf()输出
    发表于 11-13 21:31

    DSP28335的ADC模块使用介绍

    级联模式或双排序模式,采用级联模式,8状态排序器SEQ1和SEQ2构成16状态的SEQ
    的头像 发表于 11-08 10:37 9479次阅读
    DSP28335的ADC模块使用介绍