0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

PyTorch中激活函数的全面概览

新机器视觉 来源:新机器视觉 2024-04-30 09:26 次阅读

为了更清晰地学习Pytorch中的激活函数,并对比它们之间的不同,这里对最新版本的Pytorch中的激活函数进行了汇总,主要介绍激活函数的公式、图像以及使用方法,具体细节可查看官方文档。

1、ELU

公式:

99f3d2c6-063c-11ef-a297-92fbcf53809c.png

图像:

99fd92e8-063c-11ef-a297-92fbcf53809c.png

示例:

9a09bc58-063c-11ef-a297-92fbcf53809c.png

2、Hardshrink

公式:

9a0d8e14-063c-11ef-a297-92fbcf53809c.png

图像:

9a1adc5e-063c-11ef-a297-92fbcf53809c.png

示例:

9a256520-063c-11ef-a297-92fbcf53809c.png

3、Hardsigmoid

公式:

9a2c35bc-063c-11ef-a297-92fbcf53809c.png

图像:

9a300804-063c-11ef-a297-92fbcf53809c.png

示例:

9a3d2eda-063c-11ef-a297-92fbcf53809c.png

4、Hardtanh

公式:

9a47b2ce-063c-11ef-a297-92fbcf53809c.png

图像:

9a52d0fa-063c-11ef-a297-92fbcf53809c.png

示例:

9a5aaf28-063c-11ef-a297-92fbcf53809c.png

5、Hardswish

公式:

9a61970c-063c-11ef-a297-92fbcf53809c.png

图像:

9a697d82-063c-11ef-a297-92fbcf53809c.png

示例:

9ab8be9c-063c-11ef-a297-92fbcf53809c.png

6、LeakyReLU

公式:

9ac00fd0-063c-11ef-a297-92fbcf53809c.png

图像:

9ac6b312-063c-11ef-a297-92fbcf53809c.png

示例:

9ad15c04-063c-11ef-a297-92fbcf53809c.png

7、LogSigmoid

公式:

9ad4fc92-063c-11ef-a297-92fbcf53809c.png

图像:

9ada80c2-063c-11ef-a297-92fbcf53809c.png

示例;

9ae1d9e4-063c-11ef-a297-92fbcf53809c.png

8、PReLU

公式:

9ae56e60-063c-11ef-a297-92fbcf53809c.png

其中,a是可学习的参数

图像:

9aedb9f8-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.PReLU()

9、ReLU

公式:

9af7ac06-063c-11ef-a297-92fbcf53809c.png

图像:

9afe6668-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.ReLU()

10、ReLU6

公式:

9b0258e0-063c-11ef-a297-92fbcf53809c.png

图像:

9b06107a-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.ReLU6()

11、RReLU

公式:

9b0b45f4-063c-11ef-a297-92fbcf53809c.png

其中,a从均匀分布U(lower,upper)随机采样得到。

图像:

9b12ee58-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.RReLU(0.1, 0.3)

12、SELU

公式:

9b1b5ce6-063c-11ef-a297-92fbcf53809c.png

其中,a=1.6732632423543772848170429916717,scale=1.0507009873554804934193349852946。

图像:

9b233a42-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.SELU()

13、CELU

公式:

9b2c92ea-063c-11ef-a297-92fbcf53809c.png

图像:

9b337ff6-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.CELU()

14、GELU

公式:

9b3fd0c6-063c-11ef-a297-92fbcf53809c.png

图像:

9b4984b8-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.GELU()

15、Sigmoid

公式:

9b4d35ea-063c-11ef-a297-92fbcf53809c.png

图像:

9b50fb3a-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn. Sigmoid()

16、SiLU

公式:

9b56ebd0-063c-11ef-a297-92fbcf53809c.png

图像:

9b5c0836-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.SiLU()

17、Mish

公式:

9b5f8fe2-063c-11ef-a297-92fbcf53809c.png

图像:

9b6a56ca-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Mish()

18、Softplus

公式:

9b7824d0-063c-11ef-a297-92fbcf53809c.png

对于数值稳定性,当9b7fa9b2-063c-11ef-a297-92fbcf53809c.png时,恢复到线性函数。

图像:

9b865852-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Softplus()

19、Softshrink

公式:

9b906cca-063c-11ef-a297-92fbcf53809c.png

图像:

9b96ad2e-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Softshrink()

20、Softsign

公式:

9b9ef812-063c-11ef-a297-92fbcf53809c.png

图像:

9ba45866-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Softsign()

21、Tanh

公式:

9bad9bce-063c-11ef-a297-92fbcf53809c.png

图像:

9bb53b36-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Tanh()

22、Tanhshrink

公式:

9bc0bfb0-063c-11ef-a297-92fbcf53809c.png

图像:

9bc7eb46-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Tanhshrink()

23、Threshold

公式:

9bd43a18-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Threshold(0.1, 20)

24、GLU

公式:

9bd7d420-063c-11ef-a297-92fbcf53809c.png

其中,a是输入矩阵的前半部分,b是后半部分。

示例:

m = nn.GLU()

25、Softmin

公式:

9bdb6036-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Softmin(dim=1)

26、Softmax

公式:

9be16e72-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Softmax(dim=1)

27、LogSoftmax

公式:

9beba9a0-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.LogSoftmiax(dim=1)

28、其它

还有MultiheadAttention、Softmax2d、AdaptiveLogSoftmaxWithLoss相对复杂一些没有添加,可去官网文档查看.

审核编辑:黄飞

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 函数
    +关注

    关注

    3

    文章

    4329

    浏览量

    62576
  • pytorch
    +关注

    关注

    2

    文章

    808

    浏览量

    13202

原文标题:Pytorch激活函数最全汇总

文章出处:【微信号:vision263com,微信公众号:新机器视觉】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    Stm32寄存器与库函数概览

    Stm32寄存器与库函数概览(摘自固件库使用手册)
    发表于 01-26 11:04

    基于神经网络的激活函数和相应的数学介绍

    希望你理解了激活函数背后的思想,为什么要使用激活函数,以及如何选用激活函数
    的头像 发表于 01-10 11:53 6374次阅读
    基于神经网络的<b class='flag-5'>激活</b><b class='flag-5'>函数</b>和相应的数学介绍

    激活函数sigmoid、ReLU等函数的一些性质

    非线性:当激活函数是线性的时候,一个两层的神经网络就可以基本逼近所有的函数,但是,如果激活函数是恒等激活
    的头像 发表于 08-02 14:52 1.1w次阅读
    <b class='flag-5'>激活</b><b class='flag-5'>函数</b><b class='flag-5'>中</b>sigmoid、ReLU等<b class='flag-5'>函数</b>的一些性质

    图文详解:神经网络的激活函数

    什么是神经网络激活函数激活函数有助于决定我们是否需要激活神经元。如果我们需要发射一个神经元那么信号的强度是多少。
    的头像 发表于 07-05 11:21 3775次阅读
    图文详解:神经网络的<b class='flag-5'>激活</b><b class='flag-5'>函数</b>

    详解十种激活函数的优缺点

    激活函数(Activation Function)是一种添加到人工神经网络函数,旨在帮助网络学习数据的复杂模式。类似于人类大脑中基于神
    的头像 发表于 03-05 16:15 1.3w次阅读
    详解十种<b class='flag-5'>激活</b><b class='flag-5'>函数</b>的优缺点

    关于深度学习最常用的10大激活函数详解

    那就让我们来整理一下深度学习离不开的激活函数
    的头像 发表于 03-12 17:45 3219次阅读
    关于深度学习最常用的10大<b class='flag-5'>激活</b><b class='flag-5'>函数</b>详解

    PyTorch已为我们实现了大多数常用的非线性激活函数

    PyTorch已为我们实现了大多数常用的非线性激活函数,我们可以像使用任何其他的层那样使用它们。让我们快速看一个在PyTorch中使用ReLU激活
    的头像 发表于 07-06 14:47 932次阅读

    PyTorch中使用ReLU激活函数的例子

    PyTorch已为我们实现了大多数常用的非线性激活函数,我们可以像使用任何其他的层那样使用它们。让我们快速看一个在PyTorch中使用ReLU激活
    的头像 发表于 07-06 15:27 2539次阅读

    PyTorchnn.Conv2d与nn.ConvTranspose2d函数的用法

    PyTorchnn.Conv2d与nn.ConvTranspose2d函数的用法
    的头像 发表于 01-11 16:43 5038次阅读
    <b class='flag-5'>PyTorch</b><b class='flag-5'>中</b>nn.Conv2d与nn.ConvTranspose2d<b class='flag-5'>函数</b>的用法

    解析激活函数作用

    激活函数是用来加入非线性因素的,解决线性模型所不能解决的问题。 下面我分别从这个方面通过例子给出自己的理解~
    的头像 发表于 02-17 15:46 1017次阅读
    解析<b class='flag-5'>激活</b><b class='flag-5'>函数</b>作用

    PyTorch教程23.7之效用函数和类

    电子发烧友网站提供《PyTorch教程23.7之效用函数和类.pdf》资料免费下载
    发表于 06-06 09:19 0次下载
    <b class='flag-5'>PyTorch</b>教程23.7之效用<b class='flag-5'>函数</b>和类

    神经网络激活函数有哪些

    在神经网络激活函数是一个至关重要的组成部分,它决定了神经元对于输入信号的反应方式,为神经网络引入了非线性因素,使得网络能够学习和处理复杂的模式。本文将详细介绍神经网络中常用的激活
    的头像 发表于 07-01 11:52 576次阅读

    神经网络激活函数的定义及类型

    引言 神经网络是一种模拟人脑神经元结构的计算模型,广泛应用于图像识别、自然语言处理、语音识别等领域。在神经网络激活函数起着至关重要的作用,它决定了神经元的输出值,进而影响整个网络的性能。本文将
    的头像 发表于 07-02 10:09 515次阅读

    卷积神经网络激活函数的作用

    卷积神经网络(Convolutional Neural Networks, CNNs)是深度学习中一种重要的神经网络结构,广泛应用于图像识别、语音识别、自然语言处理等领域。在卷积神经网络激活函数
    的头像 发表于 07-03 09:18 871次阅读

    BP神经网络激活函数怎么选择

    激活函数起着至关重要的作用,它决定了神经元的输出方式,进而影响整个网络的性能。 一、激活函数的作用
    的头像 发表于 07-03 10:02 675次阅读