Skip to content
14 changes: 7 additions & 7 deletions docs/api/paddle/nn/LayerNorm_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -16,20 +16,20 @@ LayerNorm

\\y=f(\frac{g}{\sigma}(x-\mu) + b)\\

- :math:`x`:该层神经元的向量表示
- :math:`H`:层中隐藏神经元个数
- :math:`\epsilon`:添加较小的值到方差中以防止除零
- :math:`g`:可训练的增益参数
- :math:`b`:可训练的偏置参数
- :math:`x` :该层神经元的向量表示
- :math:`H` :层中隐藏神经元个数
- :math:`\epsilon` :添加较小的值到方差中以防止除零
- :math:`g` :可训练的增益参数
- :math:`b` :可训练的偏置参数


参数
::::::::::::

- **normalized_shape** (int|list|tuple) – 需规范化的 shape,期望的输入 shape 为 ``[*, normalized_shape[0], normalized_shape[1], ..., normalized_shape[-1]]`` 。如果是单个整数,则此模块将在最后一个维度上规范化(此时最后一维的维度需与该参数相同)。
- **epsilon** (float,可选) - 指明在计算过程中是否添加较小的值到方差中以防止除零。默认值:1e-05。
weight_attr (ParamAttr|bool|None, 可选) - 用于指定可训练的增益参数 :math:g 的属性。如果为 False,则不使用权重(即权重参数为 None);如果为 None,则会使用一个默认的 ParamAttr 作为权重的属性设置,该属性将权重初始化为 1。默认值为 None,表示使用默认的权重属性。具体用法请参见 :ref:`cn_api_paddle_ParamAttr`。
bias_attr (ParamAttr|bool|None, 可选) - 用于指定可训练的偏置参数 :math:b 的属性。如果为 False,则不使用偏置(即偏置参数为 None);如果为 None,则会使用一个默认的 ParamAttr 作为偏置的属性设置,该属性将偏置初始化为 0。默认值为 None,表示使用默认的偏置属性。具体用法请参见 :ref:`cn_api_paddle_ParamAttr`。
- **weight_attr** (ParamAttr|bool|None, 可选) - 用于指定可训练的增益参数 :math:`g` 的属性。如果为 False,则不使用权重(即权重参数为 None);如果为 None,则会使用一个默认的 ParamAttr 作为权重的属性设置,该属性将权重初始化为 1。默认值为 None,表示使用默认的权重属性。具体用法请参见 :ref:`cn_api_paddle_ParamAttr`。
- **bias_attr** (ParamAttr|bool|None, 可选) - 用于指定可训练的偏置参数 :math:`b` 的属性。如果为 False,则不使用偏置(即偏置参数为 None);如果为 None,则会使用一个默认的 ParamAttr 作为偏置的属性设置,该属性将偏置初始化为 0。默认值为 None,表示使用默认的偏置属性。具体用法请参见 :ref:`cn_api_paddle_ParamAttr`。
- **name** (str,可选) - 具体用法请参见 :ref:`api_guide_Name`,一般无需设置,默认值为 None。

形状
Expand Down
9 changes: 4 additions & 5 deletions docs/api/paddle/nn/MaxPool3D_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -10,14 +10,13 @@ MaxPool3D
例如:

输入:
X 形状::math:`\left ( N,C,D_{in}, H_{in},W_{in} \right )`
X 形状: :math:`\left ( N,C,D_{in}, H_{in},W_{in} \right )`
属性:
kernel_size: :math:`ksize [kD, kH, kW]`
stride: :math:`stride`
kernel_size :math:`ksize [kD, kH, kW]`
stride :math:`stride`
输出:
Out 形状::math:`\left ( N,C,D_{out}, H_{out},W_{out} \right )`
Out 形状: :math:`\left ( N,C,D_{out}, H_{out},W_{out} \right )`
.. math::
.. math::
\text{out}(N_i, C_j, d, h, w) ={} & \max_{k=0, \ldots, kD-1} \max_{m=0, \ldots, kH-1} \max_{n=0, \ldots, kW-1} \\
& \text{input}(N_i, C_j, \text{stride[0]} \times d + k,
\text{stride[1]} \times h + m, \text{stride[2]} \times w + n)
Expand Down
5 changes: 2 additions & 3 deletions docs/api/paddle/nn/functional/max_pool3d_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -10,14 +10,13 @@ max_pool3d
例如:

输入:
X 形状::math:`\left ( N,C,D_{in}, H_{in},W_{in} \right )`
X 形状: :math:`\left ( N,C,D_{in}, H_{in},W_{in} \right )`
属性:
kernel_size: :math:`[kD, kH, kW]`
stride: :math:`stride`
输出:
Out 形状::math:`\left ( N,C,D_{out}, H_{out},W_{out} \right )`
Out 形状: :math:`\left ( N,C,D_{out}, H_{out},W_{out} \right )`
.. math::
.. math::
\text{out}(N_i, C_j, d, h, w) ={} & \max_{k=0, \ldots, kD-1} \max_{m=0, \ldots, kH-1} \max_{n=0, \ldots, kW-1} \\
& \text{input}(N_i, C_j, \text{stride[0]} \times d + k,
\text{stride[1]} \times h + m, \text{stride[2]} \times w + n)
Expand Down
2 changes: 1 addition & 1 deletion docs/api/paddle/sparse/nn/BatchNorm_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -8,7 +8,7 @@ BatchNorm

构建稀疏 ``BatchNorm`` 类的一个可调用对象,具体用法参照 ``代码示例`` 。可以处理 4D SparseCooTensor ,实现了批归一化层(Batch Normalization Layer)的功能,可用作卷积和全连接操作的批归一化函数,根据当前批次数据按通道计算的均值和方差进行归一化。更多详情请参考: `Batch Normalization : Accelerating Deep Network Training by Reducing Internal Covariate Shift <https://arxiv.org/pdf/1502.03167.pdf>`_ 。

当 use_global_stats = False 时 :math: `\mu_{\beta}` 和 :math: `\sigma_{\beta}^{2}` 是 minibatch 的统计数据。计算公式如下:
当 use_global_stats = False 时 :math:`\mu_{\beta}` 和 :math:`\sigma_{\beta}^{2}` 是 minibatch 的统计数据。计算公式如下:

.. math::

Expand Down
14 changes: 7 additions & 7 deletions docs/api/paddle/sparse/nn/SubmConv2D_cn.rst
Original file line number Diff line number Diff line change
Expand Up @@ -9,7 +9,7 @@ SubmConv2D

子流形稀疏二维卷积层(submanifold sparse convolution2d layer)根据输入计算输出,卷积核和步长、填充、空洞大小(dilations)一组参数。
输入(input)和输出(Output)是多维的稀疏张量(Sparse Coo Tensor),
形状为 :math:[N,H,W,C] 其中 N 是批尺寸,C 是通道,H 是特征高度,W 是特征宽度。
形状为 :math:`[N,H,W,C]` 其中 N 是批尺寸,C 是通道,H 是特征高度,W 是特征宽度。
如果提供了 bias_attr,则添加偏置项到卷积的输出。
对于每一个输入 :math:`X`,方程是:

Expand All @@ -18,11 +18,11 @@ SubmConv2D

其中:

- :math:`X`: 输入值, NDHWC 格式的 Tencer。
- :math:`W`: 卷积核值, NDHWC 格式的 Tencer。
- :math:`\\ast`: 子流形卷积运算, 参考论文: https://arxiv.org/abs/1706.01307。
- :math:`b`: 偏置值, 形状为[M]的 1-D Tencer。
- :math:`Out`: 输出值, :math:`Out` 和 :math:`X` 的形状可能不同。
- :math:`X` : 输入值, NDHWC 格式的 Tencer。
- :math:`W` : 卷积核值, NDHWC 格式的 Tencer。
- :math:`\\ast` : 子流形卷积运算, 参考论文: https://arxiv.org/abs/1706.01307。
- :math:`b` : 偏置值, 形状为[M]的 1-D Tencer。
- :math:`Out` : 输出值, :math:`Out` 和 :math:`X` 的形状可能不同。

参数
::::::::::::
Expand All @@ -44,7 +44,7 @@ SubmConv2D
- **groups** (int, 可选): - 二维卷积层的组号。根据 Alex Krizhevsky 的 Deep CNN 论文中的分组卷积:当 group = 2 时, 卷积核的前半部分仅连接到输入通道的前半部分, 而卷积核的后半部分仅连接到输入通道的后半部分。默认值为 1。
- **padding_mode** (str, 可选): - ``'zeros'`` , ``'reflect'`` , ``'replicate'`` 或 ``'circular'`` 。 目前仅支持 ``'zeros'`` 。
- **key** (str, 可选): - key 用于保存或使用相同的规则手册,规则手册的定义和作用是指 https://pdfs.semanticscholar.org/5125/a16039cabc6320c908a4764f32596e018ad3.pdf。默认值为 None。
- **weight_attr** (ParamAttr, 可选): - conv2d 的可学习参数/权重的参数属性。如果设置为 None 或 ParamAttr 的一个属性,则 conv2d 将创建 ParamAttr 作为 param_attr。 如果设置为 None, 则参数初始化为:math:`Normal(0.0, std)`, 并且 :math:`std` 是:math:`(\frac{2.0 }{filter\_elem\_num})^{0.5}`,默认值为 None。
- **weight_attr** (ParamAttr, 可选): - conv2d 的可学习参数/权重的参数属性。如果设置为 None 或 ParamAttr 的一个属性,则 conv2d 将创建 ParamAttr 作为 param_attr。 如果设置为 None, 则参数初始化为 :math:`Normal(0.0, std)` , 并且 :math:`std` 是 :math:`(\frac{2.0 }{filter\_elem\_num})^{0.5}` ,默认值为 None。
- **bias_attr** (ParamAttr|bool, 可选): - conv2d 偏差的参数属性。如果设置为 False, 则不会向输出单位添加任何偏置。如果设置为 None 或 ParamAttr 的一个属性,则 conv2d 将创建 ParamAttr 作为 bias_attr。如果未设置 bias_attr 的初始值设定项,则偏置初始化为零。默认值为 None。
- **data_format** (str, 可选): 指定输入布局的数据格式。它可以是 "NCHW" 或 "NHWC"。目前仅支持 "NHWC"。

Expand Down