0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

一文带你简单理解LSTM神经网络

电子设计 来源:电子设计 作者:电子设计 2021-01-20 22:55 次阅读

递归神经网络

在传统神经网络中,模型不会关注上一时刻的处理会有什么信息可以用于下一时刻,每一次都只会关注当前时刻的处理。举个例子来说,我们想对一部影片中每一刻出现的事件进行分类,如果我们知道电影前面的事件信息,那么对当前时刻事件的分类就会非常容易。实际上,传统神经网络没有记忆功能,所以它对每一刻出现的事件进行分类时不会用到影片已经出现的信息,那么有什么方法可以让神经网络能够记住这些信息呢?答案就是Recurrent Neural Networks(RNNs)递归神经网络。

递归神经网络的结果与传统神经网络有一些不同,它带有一个指向自身的环,用来表示它可以传递当前时刻处理的信息给下一时刻使用,结构如下:

pIYBAGAIQQ-AcSdVAABU7tq9d4A454.png

其中, Xt 为输入,A 为模型处理部分, ht 为输出。

为了更容易地说明递归神经网络,我们把上图展开,得到:

o4YBAGAIQU-AP-wnAAFv8_Qf97U175.png

这样的一条链状神经网络代表了一个递归神经网络,可以认为它是对相同神经网络的多重复制,每一时刻的神经网络会传递信息给下一时刻。如何理解它呢?假设有这样一个语言模型,我们要根据句子中已出现的词预测当前词是什么,递归神经网络的工作原理如下:

pIYBAGAIQY-AR-60AAEwuwPaQgI637.png

其中,W 为各类权重,x 表示输入,y 表示输出,h 表示隐层处理状态。

递归神经网络因为具有一定的记忆功能,可以被用来解决很多问题,例如:语音识别、语言模型、机器翻译等。但是它并不能很好地处理长时依赖问题。

长时依赖问题

长时依赖是这样的一个问题,当预测点与依赖的相关信息距离比较远的时候,就难以学到该相关信息。例如在句子”我出生在法国,……,我会说法语“中,若要预测末尾”法语“,我们需要用到上下文”法国“。理论上,递归神经网络是可以处理这样的问题的,但是实际上,常规的递归神经网络并不能很好地解决长时依赖,好的是LSTMs可以很好地解决这个问题。

LSTM 神经网络

Long Short Term Mermory network(LSTM)是一种特殊的RNNs,可以很好地解决长时依赖问题。那么它与常规神经网络有什么不同?
首先我们来看RNNs具体一点的结构:

o4YBAGAIQhmAF8PaAALDHWy9qlE458.png

所有的递归神经网络都是由重复神经网络模块构成的一条链,可以看到它的处理层非常简单,通常是一个单tanh层,通过当前输入及上一时刻的输出来得到当前输出。与神经网络相比,经过简单地改造,它已经可以利用上一时刻学习到的信息进行当前时刻的学习了。

LSTM的结构与上面相似,不同的是它的重复模块会比较复杂一点,它有四层结构:

o4YBAGAIQmSACJm6AAOBOOunrrE030.png

其中,处理层出现的符号及表示意思如下:

o4YBAGAIQrOAE0HkAABgfmDk8Kc927.png

LSTMs的核心思想

理解LSTMs的关键就是下面的矩形方框,被称为memory block(记忆块),主要包含了三个门(forget gate、input gate、output gate)与一个记忆单元(cell)。方框内上方的那条水平线,被称为cell state(单元状态),它就像一个传送带,可以控制信息传递给下一时刻。

o4YBAGAIQveAdj3mAADMQBhyKMk954.png

这个矩形方框还可以表示为:

pIYBAGAIQzeAXPVOAAA9OhrBYLo440.png

这两个图可以对应起来看,下图中心的 ct 即cell,从下方输入( ht−1 , xt )到输出 ht的一条线即为cell state, ft,it,ot 分别为遗忘门、输入门、输出门,用sigmoid层表示。上图中的两个tanh层则分别对应cell的输入与输出。

LSTM可以通过门控单元可以对cell添加和删除信息。通过门可以有选择地决定信息是否通过,它有一个sigmoid神经网络层和一个成对乘法操作组成,如下:

pIYBAGAIQ3yAAPxaAAAUYxfcoJw475.png

该层的输出是一个介于0到1的数,表示允许信息通过的多少,0 表示完全不允许通过,1表示允许完全通过。

逐步解析LSTM

LSTM第一步是用来决定什么信息可以通过cell state。这个决定由“forget gate”层通过 sigmoid 来控制,它会根据上一时刻的输出 ht−1 和当前输入 xt 来产生一个0到1 的 ft 值,来决定是否让上一时刻学到的信息 Ct−1 通过或部分通过。如下:

pIYBAGAIQ7uAJh9kAAD-CrKq7tY692.png

举个例子来说就是,我们在之前的句子中学到了很多东西,一些东西对当前来讲是没用的,可以对它进行选择性地过滤。

第二步是产生我们需要更新的新信息。这一步包含两部分,第一个是一个“input gate”层通过sigmoid来决定哪些值用来更新,第二个是一个tanh层用来生成新的候选值pIYBAGAIQ_iAaxvgAAABwIVoaPY048.png,它作为当前层产生的候选值可能会添加到cell state中。我们会把这两部分产生的值结合来进行更新。

o4YBAGAIRDiAUXItAAE2k80YWAA481.png

现在我们对老的cell state进行更新,首先,我们将老的cell state乘以 ft 来忘掉我们不需要的信息,然后再与 it ∗ pIYBAGAIQ_iAaxvgAAABwIVoaPY048.png相加,得到了候选值。
一二步结合起来就是丢掉不需要的信息,添加新信息的过程:

举个例子就是,在前面的句子中我们保存的是张三的信息,现在有了新的李四信息,我们需要把张三的信息丢弃掉,然后把李四的信息保存下来。

最后一步是决定模型的输出,首先是通过sigmoid层来得到一个初始输出,然后使用tanh将 Ct 值缩放到-1到1间,再与sigmoid得到的输出逐对相乘,从而得到模型的输出。

这显然可以理解,首先sigmoid函数的输出是不考虑先前时刻学到的信息的输出,tanh函数是对先前学到信息的压缩处理,起到稳定数值的作用,两者的结合学习就是递归神经网络的学习思想。至于模型是如何学习的,那就是后向传播误差学习权重的一个过程了。

上面是对LSTM一个典型结构的理解,当然,它也会有一些结构上的变形,但思想基本不变,这里也就不多讲了。

来源:电子创新网

审核编辑 黄昊宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4765

    浏览量

    100605
  • LSTM
    +关注

    关注

    0

    文章

    59

    浏览量

    3738
收藏 人收藏

    评论

    相关推荐

    LSTM神经网络与其他机器学习算法的比较

    随着人工智能技术的飞速发展,机器学习算法在各个领域中扮演着越来越重要的角色。长短期记忆网络LSTM)作为种特殊的循环神经网络(RNN),因其在处理序列数据方面的优势而受到广泛关注。
    的头像 发表于 11-13 10:17 409次阅读

    深度学习框架中的LSTM神经网络实现

    长短期记忆(LSTM网络种特殊的循环神经网络(RNN),能够学习长期依赖信息。与传统的RNN相比,LSTM通过引入门控机制来解决梯度消
    的头像 发表于 11-13 10:16 269次阅读

    基于LSTM神经网络的情感分析方法

    情感分析是自然语言处理(NLP)领域的项重要任务,旨在识别和提取文本中的主观信息,如情感倾向、情感强度等。随着深度学习技术的发展,基于LSTM(长短期记忆)神经网络的情感分析方法因其出色的序列建模
    的头像 发表于 11-13 10:15 389次阅读

    LSTM神经网络在图像处理中的应用

    长短期记忆(LSTM神经网络种特殊的循环神经网络(RNN),它能够学习长期依赖关系。虽然LSTM最初是为处理序列数据设计的,但近年来,
    的头像 发表于 11-13 10:12 237次阅读

    如何使用Python构建LSTM神经网络模型

    构建LSTM(长短期记忆)神经网络模型是个涉及多个步骤的过程。以下是使用Python和Keras库构建LSTM模型的指南。 1. 安装
    的头像 发表于 11-13 10:10 189次阅读

    LSTM神经网络的训练数据准备方法

    LSTM(Long Short-Term Memory,长短期记忆)神经网络的训练数据准备方法是个关键步骤,它直接影响到模型的性能和效果。以下是些关于
    的头像 发表于 11-13 10:08 249次阅读

    LSTM神经网络的结构与工作机制

    LSTM(Long Short-Term Memory,长短期记忆)神经网络种特殊的循环神经网络(RNN),设计用于解决长期依赖问题,特别是在处理时间序列数据时表现出色。以下是
    的头像 发表于 11-13 10:05 168次阅读

    LSTM神经网络在语音识别中的应用实例

    语音识别技术是人工智能领域的个重要分支,它使计算机能够理解和处理人类语言。随着深度学习技术的发展,特别是长短期记忆(LSTM神经网络的引入,语音识别的准确性和效率得到了显著提升。
    的头像 发表于 11-13 10:03 333次阅读

    LSTM神经网络的调参技巧

    长短时记忆网络(Long Short-Term Memory, LSTM)是种特殊的循环神经网络(RNN),它能够学习长期依赖信息。在实际应用中,
    的头像 发表于 11-13 10:01 377次阅读

    LSTM神经网络与传统RNN的区别

    在深度学习领域,循环神经网络(RNN)因其能够处理序列数据而受到广泛关注。然而,传统RNN在处理长序列时存在梯度消失或梯度爆炸的问题。为了解决这问题,LSTM(长短期记忆)神经网络
    的头像 发表于 11-13 09:58 221次阅读

    LSTM神经网络的优缺点分析

    长短期记忆(Long Short-Term Memory, LSTM神经网络种特殊的循环神经网络(RNN),由Hochreiter和Schmidhuber在1997年提出。
    的头像 发表于 11-13 09:57 556次阅读

    使用LSTM神经网络处理自然语言处理任务

    自然语言处理(NLP)是人工智能领域的个重要分支,它旨在使计算机能够理解、解释和生成人类语言。随着深度学习技术的发展,特别是循环神经网络(RNN)及其变体——长短期记忆(LSTM
    的头像 发表于 11-13 09:56 307次阅读

    LSTM神经网络在时间序列预测中的应用

    时间序列预测是数据分析中的个重要领域,它涉及到基于历史数据预测未来值。随着深度学习技术的发展,长短期记忆(LSTM神经网络因其在处理序列数据方面的优势而受到广泛关注。 LSTM
    的头像 发表于 11-13 09:54 439次阅读

    LSTM神经网络的基本原理 如何实现LSTM神经网络

    LSTM(长短期记忆)神经网络种特殊的循环神经网络(RNN),它能够学习长期依赖信息。在处理序列数据时,如时间序列分析、自然语言处理等,LSTM
    的头像 发表于 11-13 09:53 228次阅读

    如何理解RNN与LSTM神经网络

    在深入探讨RNN(Recurrent Neural Network,循环神经网络)与LSTM(Long Short-Term Memory,长短期记忆网络神经网络之前,我们首先需要明
    的头像 发表于 07-09 11:12 572次阅读