0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

PyTorch教程-6.5. 自定义图层

jf_pJlTbmA9 来源:PyTorch 作者:PyTorch 2023-06-05 15:44 次阅读

深度学习成功背后的一个因素是广泛的层的可用性,这些层可以以创造性的方式组合以设计适合各种任务的架构。例如,研究人员发明了专门用于处理图像、文本、循环顺序数据和执行动态规划的层。迟早,您会遇到或发明深度学习框架中尚不存在的层。在这些情况下,您必须构建自定义层。在本节中,我们将向您展示如何操作。

import torch
from torch import nn
from torch.nn import functional as F
from d2l import torch as d2l

from mxnet import np, npx
from mxnet.gluon import nn
from d2l import mxnet as d2l

npx.set_np()

import jax
from flax import linen as nn
from jax import numpy as jnp
from d2l import jax as d2l

No GPU/TPU found, falling back to CPU. (Set TF_CPP_MIN_LOG_LEVEL=0 and rerun for more info.)

import tensorflow as tf
from d2l import tensorflow as d2l

6.5.1. 没有参数的图层

首先,我们构建一个自定义层,它自己没有任何参数。如果您还记得我们在第 6.1 节中对模块的介绍,这应该看起来很熟悉。以下 CenteredLayer类只是从其输入中减去平均值。要构建它,我们只需要继承基础层类并实现前向传播功能。

class CenteredLayer(nn.Module):
  def __init__(self):
    super().__init__()

  def forward(self, X):
    return X - X.mean()

class CenteredLayer(nn.Block):
  def __init__(self, **kwargs):
    super().__init__(**kwargs)

  def forward(self, X):
    return X - X.mean()

class CenteredLayer(nn.Module):
  def __call__(self, X):
    return X - X.mean()

class CenteredLayer(tf.keras.Model):
  def __init__(self):
    super().__init__()

  def call(self, X):
    return X - tf.reduce_mean(X)

让我们通过提供一些数据来验证我们的层是否按预期工作。

layer = CenteredLayer()
layer(torch.tensor([1.0, 2, 3, 4, 5]))

tensor([-2., -1., 0., 1., 2.])

layer = CenteredLayer()
layer(np.array([1.0, 2, 3, 4, 5]))

array([-2., -1., 0., 1., 2.])

layer = CenteredLayer()
layer(jnp.array([1.0, 2, 3, 4, 5]))

Array([-2., -1., 0., 1., 2.], dtype=float32)

layer = CenteredLayer()
layer(tf.constant([1.0, 2, 3, 4, 5]))


我们现在可以将我们的层合并为构建更复杂模型的组件。

net = nn.Sequential(nn.LazyLinear(128), CenteredLayer())

net = nn.Sequential()
net.add(nn.Dense(128), CenteredLayer())
net.initialize()

net = nn.Sequential([nn.Dense(128), CenteredLayer()])

net = tf.keras.Sequential([tf.keras.layers.Dense(128), CenteredLayer()])

作为额外的健全性检查,我们可以通过网络发送随机数据并检查均值实际上是否为 0。因为我们处理的是浮点数,由于量化,我们可能仍然会看到非常小的非零数。

Y = net(torch.rand(4, 8))
Y.mean()

tensor(0., grad_fn=)

Y = net(np.random.rand(4, 8))
Y.mean()

array(3.783498e-10)

Here we utilize the init_with_output method which returns both the output of the network as well as the parameters. In this case we only focus on the output.

Y, _ = net.init_with_output(d2l.get_key(), jax.random.uniform(d2l.get_key(),
                               (4, 8)))
Y.mean()

Array(5.5879354e-09, dtype=float32)

Y = net(tf.random.uniform((4, 8)))
tf.reduce_mean(Y)


6.5.2. 带参数的图层

现在我们知道如何定义简单的层,让我们继续定义具有可通过训练调整的参数的层。我们可以使用内置函数来创建参数,这些参数提供了一些基本的内务处理功能。特别是,它们管理访问、初始化、共享、保存和加载模型参数。这样,除了其他好处之外,我们将不需要为每个自定义层编写自定义序列化例程。

现在让我们实现我们自己的全连接层版本。回想一下,该层需要两个参数,一个代表权重,另一个代表偏差。在此实现中,我们将 ReLU 激活作为默认值进行烘焙。该层需要两个输入参数: in_units和units,分别表示输入和输出的数量。

class MyLinear(nn.Module):
  def __init__(self, in_units, units):
    super().__init__()
    self.weight = nn.Parameter(torch.randn(in_units, units))
    self.bias = nn.Parameter(torch.randn(units,))

  def forward(self, X):
    linear = torch.matmul(X, self.weight.data) + self.bias.data
    return F.relu(linear)

接下来,我们实例化该类MyLinear并访问其模型参数。

linear = MyLinear(5, 3)
linear.weight

Parameter containing:
tensor([[-1.2894e+00, 6.5869e-01, -1.3933e+00],
    [ 7.2590e-01, 7.1593e-01, 1.8115e-03],
    [-1.5900e+00, 4.1654e-01, -1.3358e+00],
    [ 2.2732e-02, -2.1329e+00, 1.8811e+00],
    [-1.0993e+00, 2.9763e-01, -1.4413e+00]], requires_grad=True)

class MyDense(nn.Block):
  def __init__(self, units, in_units, **kwargs):
    super().__init__(**kwargs)
    self.weight = self.params.get('weight', shape=(in_units, units))
    self.bias = self.params.get('bias', shape=(units,))

  def forward(self, x):
    linear = np.dot(x, self.weight.data(ctx=x.ctx)) + self.bias.data(
      ctx=x.ctx)
    return npx.relu(linear)

Next, we instantiate the MyDense class and access its model parameters.

dense = MyDense(units=3, in_units=5)
dense.params

mydense0_ (
 Parameter mydense0_weight (shape=(5, 3), dtype=)
 Parameter mydense0_bias (shape=(3,), dtype=)
)

class MyDense(nn.Module):
  in_units: int
  units: int

  def setup(self):
    self.weight = self.param('weight', nn.initializers.normal(stddev=1),
                 (self.in_units, self.units))
    self.bias = self.param('bias', nn.initializers.zeros, self.units)

  def __call__(self, X):
    linear = jnp.matmul(X, self.weight) + self.bias
    return nn.relu(linear)

Next, we instantiate the MyDense class and access its model parameters.

dense = MyDense(5, 3)
params = dense.init(d2l.get_key(), jnp.zeros((3, 5)))
params

FrozenDict({
  params: {
    weight: Array([[-0.02040312, 1.0439496 , -2.3386796 ],
        [ 1.1002127 , -1.780812 , -0.32284564],
        [-0.6944499 , -1.8438653 , -0.5338283 ],
        [ 1.3954164 , 1.5816483 , 0.0469989 ],
        [-0.12351853, 1.2818031 , 0.7964193 ]], dtype=float32),
    bias: Array([0., 0., 0.], dtype=float32),
  },
})

class MyDense(tf.keras.Model):
  def __init__(self, units):
    super().__init__()
    self.units = units

  def build(self, X_shape):
    self.weight = self.add_weight(name='weight',
      shape=[X_shape[-1], self.units],
      initializer=tf.random_normal_initializer())
    self.bias = self.add_weight(
      name='bias', shape=[self.units],
      initializer=tf.zeros_initializer())

  def call(self, X):
    linear = tf.matmul(X, self.weight) + self.bias
    return tf.nn.relu(linear)

Next, we instantiate the MyDense class and access its model parameters.

dense = MyDense(3)
dense(tf.random.uniform((2, 5)))
dense.get_weights()

[array([[-0.08860754, -0.04000078, -0.03810905],
    [-0.0543257 , -0.01143957, -0.06748273],
    [-0.05273567, -0.01696461, -0.00552523],
    [ 0.00193098, 0.0662979 , -0.05486313],
    [-0.08595717, 0.08563109, 0.04592342]], dtype=float32),
 array([0., 0., 0.], dtype=float32)]

我们可以直接使用自定义层进行前向传播计算。

linear(torch.rand(2, 5))

tensor([[0.0000, 1.7772, 0.0000],
    [0.0000, 1.0303, 0.0000]])

dense.initialize()
dense(np.random.uniform(size=(2, 5)))

array([[0.    , 0.01633355, 0.    ],
    [0.    , 0.01581812, 0.    ]])

dense.apply(params, jax.random.uniform(d2l.get_key(),
                    (2, 5)))

Array([[0.05256309, 0.    , 0.    ],
    [0.3500959 , 0.    , 0.30999148]], dtype=float32)

dense(tf.random.uniform((2, 5)))


我们还可以使用自定义层构建模型。一旦我们有了它,我们就可以像使用内置的全连接层一样使用它。

net = nn.Sequential(MyLinear(64, 8), MyLinear(8, 1))
net(torch.rand(2, 64))

tensor([[0.],
    [0.]])

net = nn.Sequential()
net.add(MyDense(8, in_units=64),
    MyDense(1, in_units=8))
net.initialize()
net(np.random.uniform(size=(2, 64)))

array([[0.06508517],
    [0.0615553 ]])

net = nn.Sequential([MyDense(64, 8), MyDense(8, 1)])
Y, _ = net.init_with_output(d2l.get_key(), jax.random.uniform(d2l.get_key(),
                               (2, 64)))
Y

Array([[8.348445 ],
    [2.0591817]], dtype=float32)

net = tf.keras.models.Sequential([MyDense(8), MyDense(1)])
net(tf.random.uniform((2, 64)))


6.5.3. 概括

我们可以通过基本层类来设计自定义层。这使我们能够定义灵活的新层,这些层的行为不同于库中的任何现有层。一旦定义好,自定义层就可以在任意上下文和架构中被调用。层可以有局部参数,可以通过内置函数创建。

6.5.4. 练习

设计一个接受输入并计算张量缩减的层,即它返回yk=∑i,jWijkxixj.

设计一个返回数据傅里叶系数前半部分的层。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 深度学习
    +关注

    关注

    73

    文章

    5512

    浏览量

    121440
收藏 人收藏

    评论

    相关推荐

    HarmonyOS开发实例:【自定义Emitter】

    使用[Emitter]实现事件的订阅和发布,使用[自定义弹窗]设置广告信息。
    的头像 发表于 04-14 11:37 1047次阅读
    HarmonyOS开发实例:【<b class='flag-5'>自定义</b>Emitter】

    Core ML框架详细解析(十一) —— 创建自定义图层(一)

    Core ML框架详细解析(十一) —— 创建自定义图层(一)
    发表于 07-08 13:17

    自定义函数测试学习工程

    自定义函数测试学习工程
    发表于 07-01 16:37 5次下载

    SOPC中自定义外设和自定义指令性能分析

    SOPC中自定义外设和自定义指令性能分析 NiosII是一个建立在FPGA上的嵌入式软核处理器,灵活性很强。作为体现NiosII灵活性精髓的两个最主要方面,自
    发表于 03-29 15:12 1629次阅读
    SOPC中<b class='flag-5'>自定义</b>外设和<b class='flag-5'>自定义</b>指令性能分析

    1602自定义字符

    1602液晶能够显示自定义字符,能够根据读者的具体情况显示自定义字符。
    发表于 01-20 15:43 1次下载

    JAVA教程之自定义光标

    JAVA教程之自定义光标,很好的学习资料。
    发表于 03-31 11:13 7次下载

    PDH网管盘 自定义字节

    PDH网管盘 自定义字节
    发表于 12-26 22:13 0次下载

    如何在android设备上安装自定义rom

    完成后,请执行相同的操作,但不要选择自定义rom,而是选择间隙。安装间隙之前需要使用一些自定义rom,您可以从自定义rom的开发人员网页上了解,如果他们没有提及任何相关内容,只需在自定义
    的头像 发表于 11-05 10:48 5211次阅读

    PyTorch如何实现自定义CUDA算子并调用的方法且测量CUDA程序耗时

    最近因为工作需要,学习了一波CUDA。这里简单记录一下PyTorch自定义CUDA算子的方法,写了一个非常简单的example,再介绍一下正确的PyTorch中CUDA运行时间分析方法。
    的头像 发表于 03-30 15:58 4577次阅读
    <b class='flag-5'>PyTorch</b>如何实现<b class='flag-5'>自定义</b>CUDA算子并调用的方法且测量CUDA程序耗时

    自定义视图组件教程案例

    自定义组件 1.自定义组件-particles(粒子效果) 2.自定义组件- pulse(脉冲button效果) 3.自定义组件-progress(progress效果) 4.
    发表于 04-08 10:48 14次下载

    ArkUI如何自定义弹窗(eTS)

    自定义弹窗其实也是比较简单的,通过CustomDialogController类就可以显示自定义弹窗。
    的头像 发表于 08-31 08:24 2277次阅读

    labview自定义控件

    labview自定义精美控件
    发表于 05-15 16:46 18次下载

    PyTorch教程6.5自定义图层

    电子发烧友网站提供《PyTorch教程6.5自定义图层.pdf》资料免费下载
    发表于 06-05 15:17 0次下载
    <b class='flag-5'>PyTorch</b>教程<b class='flag-5'>6.5</b>之<b class='flag-5'>自定义</b><b class='flag-5'>图层</b>

    自定义算子开发

    一个完整的自定义算子应用过程包括注册算子、算子实现、含自定义算子模型转换和运行含自定义op模型四个阶段。在大多数情况下,您的模型应该可以通过使用hb_mapper工具完成转换并顺利部署到地平线芯片上……
    的头像 发表于 04-07 16:11 2864次阅读
    <b class='flag-5'>自定义</b>算子开发

    labview超快自定义控件制作和普通自定义控件制作

    labview超快自定义控件制作和普通自定义控件制作
    发表于 08-21 10:32 13次下载