!32110 optimizes the documentation of chinese API of ClipByNorm,Pad,MaxPool3D,etc

Merge pull request !32110 from zhangfanghe/code_docs_zfh_328
This commit is contained in:
i-robot 2022-03-30 08:36:09 +00:00 committed by Gitee
commit f548a82f80
No known key found for this signature in database
GPG Key ID: 173E9B9CA92EEF8F
29 changed files with 76 additions and 61 deletions

View File

@ -20,7 +20,7 @@ mindspore.nn.ClipByNorm
**输入:**
- **x** (Tensor) - 输入n维的Tensor数据类型为float32或float16。
- **clip_norm** (Tensor) - shape为 :math:`()`:math:`(1)` 的Tensor。或者Tensor的shape可以广播到输入的shape。
- **clip_norm** (Tensor) - shape为 :math:`()`:math:`(1)` 的Tensor。或者shape可以广播到输入的shape。
**输出:**

View File

@ -14,7 +14,7 @@ mindspore.nn.Dropout
**参数:**
- **keep_prob** (float) - 输入神经元保留率数值范围在0到1之间。例如rate=0.9删除10%的输入单位。默认值0.5。
- **keep_prob** (float) - 输入神经元保留率数值范围在0到1之间。例如rate=0.9删除10%的神经元。默认值0.5。
- **dtype** (:class:`mindspore.dtype`) - `x` 的数据类型。默认值float32。
**输入:**

View File

@ -20,7 +20,7 @@ mindspore.nn.GRUCell
- **input_size** (int) - 输入的大小。
- **hidden_size** (int) - 隐藏状态大小。
- **has_bias** (bool) - cell是否有偏置项 `b_ih``b_hh` 。默认值True。
- **has_bias** (bool) - cell是否有偏置项 `b_in``b_hn` 。默认值True。
**输入:**

View File

@ -19,6 +19,11 @@ mindspore.nn.LSTMCell
其中 :math:`\sigma` 是sigmoid函数 :math:`*` 是乘积。 :math:`W,b` 是公式中输出和输入之间的可学习权重。例如,:math:`W_{ix}, b_{ix}` 是用于从输入 :math:`x` 转换为 :math:`i` 的权重和偏置。详见论文 `LONG SHORT-TERM MEMORY <https://www.bioinf.jku.at/publications/older/2604.pdf>`_`Long Short-Term Memory Recurrent Neural Network Architectures for Large Scale Acoustic Modeling <https://static.googleusercontent.com/media/research.google.com/zh-CN//pubs/archive/43905.pdf>`_
nn层封装的LSTMCell可以简化为如下公式
.. math::
h^{'},c^{'} = LSTMCell(x, (h_0, c_0))
**参数:**
- **input_size** (int) - 输入的大小。

View File

@ -8,7 +8,7 @@ mindspore.nn.LayerNorm
层归一化在递归神经网络中被广泛的应用。适用单个训练用例的mini-batch输入上应用归一化详见论文 `Layer Normalization <https://arxiv.org/pdf/1607.06450.pdf>`_
与批归一化Batch Normalization不同层归一化在训练和测试时执行完全相同的计算。
应用于所有通道和像素,即使只有一个batch size也能应用。公式如下:
应用于所有通道和像素,即使batch_size=1也适用。公式如下:
.. math::
y = \frac{x - \mathrm{E}[x]}{\sqrt{\mathrm{Var}[x] + \epsilon}} * \gamma + \beta
@ -16,7 +16,7 @@ mindspore.nn.LayerNorm
**参数:**
- **normalized_shape** (Union(tuple[int], list[int]) - 沿轴 `begin_norm_axis ... R - 1` 执行归一化。
- **begin_norm_axis** (int) - 第一个归一化维度:归一化将在维度 `begin_norm_axis: rank(inputs)` 上执行,取值范围是[-1, rank(input))。默认值:-1。
- **begin_norm_axis** (int) - 归一化开始计算的轴:归一化将在维度 `begin_norm_axis: rank(inputs)` 上执行,取值范围是[-1, rank(input))。默认值:-1。
- **begin_params_axis** (int) - 第一个参数(beta, gamma)的维度scale和centering参数有 `begin_params_axis: rank(inputs)` 个维度,并与输入一起广播,取值范围是[-1, rank(input))。默认值:-1。
- **gamma_init** (Union[Tensor, str, Initializer, numbers.Number]) - gama参数的初始化方法。str的值引用自函数 `initializer` ,包括'zeros'、'ones'、'xavier_uniform'、'he_uniform'等。默认值:'ones'。
- **beta_init** (Union[Tensor, str, Initializer, numbers.Number]) - beta参数的初始化方法。str的值引用自函数 `initializer` ,包括'zeros'、'ones'、'xavier_uniform'、'he_uniform'等。默认值:'zeros'。
@ -24,7 +24,7 @@ mindspore.nn.LayerNorm
**输入:**
- **x** (Tensor) - 'x'的shape为 :math:`(x_1, x_2, ..., x_R)` `input_shape[begin_norm_axis:]` 等于 `normalized_shape`
- **x** (Tensor) - `x` 的shape为 :math:`(x_1, x_2, ..., x_R)` `input_shape[begin_norm_axis:]` 等于 `normalized_shape`
**输出:**
@ -32,6 +32,6 @@ mindspore.nn.LayerNorm
**异常:**
- **TypeError** - `normalized_shape` 既不是列表也不是元组
- **TypeError** - `begin_norm_axis``begin_params_axis` 不是整数
- **TypeError** - `normalized_shape` 既不是list也不是tuple
- **TypeError** - `begin_norm_axis``begin_params_axis` 不是int
- **TypeError** - `epsilon` 不是float。

View File

@ -9,7 +9,7 @@ mindspore.nn.PReLU
.. math::
prelu(x_i)= \max(0, x_i) + w * \min(0, x_i),
PReLU(x_i)= \max(0, x_i) + w * \min(0, x_i),
其中 :math:`x_i` 是输入的Tensor。
@ -17,12 +17,12 @@ mindspore.nn.PReLU
当带参数调用时每个通道上学习一个 :math:`w` 。如果不带参数调用时,则将在所有通道中共享单个参数 :math:`w`
ReLU相关图参见 `PReLU <https://en.wikipedia.org/wiki/Activation_function#/media/File:Activation_prelu.svg>`_
PReLU相关图参见 `PReLU <https://en.wikipedia.org/wiki/Activation_function#/media/File:Activation_prelu.svg>`_
**参数:**
- **channel** (int) - 可训练参数 :math:`w` 的数量。它可以是int值是1或输入Tensor `x` 的通道数。默认值1。
- **w** (Union[float, list, Tensor]) - 参数的初始值。它可以是float、float list或与输入Tensor `x` 具有相同数据类型的Tensor。默认值0.25。
- **w** (Union[float, list, Tensor]) - 参数的初始值。它可以是float、float组成的list或与输入Tensor `x` 具有相同数据类型的Tensor。默认值0.25。
**输入:**
@ -34,8 +34,8 @@ mindspore.nn.PReLU
**异常:**
- **TypeError** - `channel` 不是整数
- **TypeError** - `w` 不是float、float list或float Tensor。
- **TypeError** - `channel` 不是int
- **TypeError** - `w` 不是float、float组成的list或float Tensor。
- **TypeError** - `x` 的数据类型既不是float16也不是float32。
- **ValueError** - `x` 是Ascend上的0-D或1-D Tensor。
- **ValueError** - `channel` 小于1。

View File

@ -7,7 +7,7 @@ mindspore.nn.Pad
**参数:**
- **paddings** (tuple) - 填充大小其shape为(N, 2)N是输入数据的维度填充的元素为int类型。对于 `x` 的第 `D` 个维度paddings[D, 0]表示要在输入Tensor的第 `D` 个维度之前扩展的大小paddings[D, 1]表示在输入Tensor的第 `D` 个维度后面要扩展的大小。输出的每个维度D的填充大小为: :math:`paddings[D, 0] + input\_x.dim\_size(D) + paddings[D, 1]`
- **paddings** (tuple) - 填充大小其shape为(N, 2)N是输入数据的维度填充的元素为int类型。对于 `x` 的第 `D` 个维度paddings[D, 0]表示要在输入Tensor的第 `D` 个维度之前扩展的大小paddings[D, 1]表示在输入Tensor的第 `D` 个维度后面要扩展的大小。每个维度填充后的大小为: :math:`paddings[D, 0] + input\_x.dim\_size(D) + paddings[D, 1]`
.. code-block::
@ -38,5 +38,5 @@ mindspore.nn.Pad
**异常:**
- **TypeError** - `paddings` 不是tuple。
- **ValueError** - `paddings` 的长度超过4或其shape不是(n, 2)。
- **ValueError** - `paddings` 的长度超过4或其shape不是(N, 2)。
- **ValueError** - `mode` 不是'CONSTANT''REFLECT'或'SYMMETRIC'。

View File

@ -12,9 +12,9 @@ mindspore.nn.RMSELoss
**输入:**
- **logits** Tensor - 输入的预测值任意维度的Tensor。
- **labels** Tensor - 输入的目标值任意维度的Tensor。一般与 `logits` 的shape相同。如果 `logits``labels` 的shape不同需支持广播。
- **logits** (Tensor) - 输入的预测值任意维度的Tensor。
- **labels** (Tensor) - 输入的目标值任意维度的Tensor。一般与 `logits` 的shape相同。如果 `logits``labels` 的shape不同需支持广播。
**输出:**
Tensor输出值为加权损失值其数据类型为float其shape为0
Tensor输出值为加权损失值其数据类型为float其shape为()

View File

@ -10,7 +10,7 @@ mindspore.nn.RNN
.. math::
h_t = \tanh(W_{ih} x_t + b_{ih} + W_{hh} h_{(t-1)} + b_{hh})
这里的 :math:`h_t` 是在 `t` 时刻的隐藏状态, :math:`x_t`是在 `t` 时刻的输入, :math:`h_{(t-1)}` 是上一层在 `t-1` 时刻的隐藏状态,或在 `0` 时刻的初始隐藏状态。如果 ``nonlinearity`` 是'relu',则使用 :math:`\text{ReLU}` 而不是 :math:`\tanh`
这里的 :math:`h_t` 是在 `t` 时刻的隐藏状态, :math:`x_t`是在 `t` 时刻的输入, :math:`h_{(t-1)}` 是上一层在 :math:`t-1` 时刻的隐藏状态,或初始隐藏状态。如果 `nonlinearity` 是'relu',则使用 :math:`\text{relu}` 而不是 :math:`\tanh`
**参数:**
@ -27,11 +27,11 @@ mindspore.nn.RNN
- **x** (Tensor) - 数据类型为mindspore.float32或mindspore.float16shape为(seq_len, batch_size, `input_size`)或(batch_size, seq_len, `input_size`)的Tensor。
- **hx** (Tensor) - 数据类型为mindspore.float32或mindspore.float16shape为(num_directions * `num_layers`, batch_size, `hidden_size`)的Tensor。 `hx` 的数据类型与 `x` 相同。
- **seq_length** (Tensor) - 输入batch的序列长度Tensor的shape为 :math:`(\text{batch_size})` 。此输入指明真实的序列长度,以避免使用填充后的元素计算隐藏状态,影响最后的输出。当**x**被填充元素时建议使用此输入。默认值None。
- **seq_length** (Tensor) - 输入batch的序列长度Tensor的shape为 `(batch_size)` 。此输入指明真实的序列长度,以避免使用填充后的元素计算隐藏状态,影响最后的输出。当**x**被填充元素时建议使用此输入。默认值None。
**输出:**
Tuple包含(`output`, `h_n`)的tuple。
Tuple包含(`output`, `hx_n`)的tuple。
- **output** (Tensor) - shape为(seq_len, batch_size, num_directions * `hidden_size`)或(batch_size, seq_len, num_directions * `hidden_size`)的Tensor。
- **hx_n** (Tensor) - shape为(num_directions * `num_layers` , batch_size, `hidden_size`)的Tensor。

View File

@ -8,7 +8,7 @@ mindspore.nn.RNNCell
.. math::
h_t = \tanh(W_{ih} x_t + b_{ih} + W_{hh} h_{(t-1)} + b_{hh})
其中 :math:`h_t` 是在 `t` 时刻的隐藏状态, :math:`x_t` 是在 `t` 时刻的输入, :math:`h_{(t-1)}` 是在 `t-1` 时刻的隐藏状态,或`0` 时刻的初始隐藏状态。
其中 :math:`h_t` 是在 `t` 时刻的隐藏状态, :math:`x_t` 是在 `t` 时刻的输入, :math:`h_{(t-1)}` 是在 :math:`t-1` 时刻的隐藏状态,或初始隐藏状态。
如果 `nonlinearity` 是'relu',则使用'relu'而不是'tanh'。

View File

@ -8,11 +8,11 @@ mindspore.nn.ReLU6
ReLU6类似于ReLU不同之处在于设置了上限其上限为6如果输入大于6输出会被限制为6。公式如下
.. math::
\min(\max(0, x), 6).
Y = \min(\max(0, x), 6).
**输入:**
- **x** (Tensor) - ReLU6的输入任意维度的Tensor其数据类型为float16或float32
- **x** (Tensor) - ReLU6的输入任意维度的Tensor其数据类型为float16或float32。
**输出:**

View File

@ -7,14 +7,14 @@ mindspore.nn.ResizeBilinear
**参数:**
- **half_pixel_centers** (bool) - 是否几何中心对齐。如果设置为True, 那么 `scale_factor` 应该设置为False。默认值False。
- **half_pixel_centers** (bool) - 是否几何中心对齐。如果设置为True, 那么 `align_corners` 应该设置为False。默认值False。
**输入:**
- **x** (Tensor) - ResizeBilinear的输入四维的Tensor其shape为 :math:`(batch, channels, height, width)` 数据类型为float16或float32。
- **size** (Union[tuple[int], list[int], None]) - 指定新Tensor的大小其shape为 :math:`(new\_height, new\_width)` 的tuple或者list。只有size或scale_factor能设置为None。默认值None。
- **scale_factor** (int, None) - 新Tensor大小的缩放因子其值为正整数。只有size或scale_factor能设置为None。默认值None。
- **align_corners** (bool) - 如果为True将使用 :math:`(new\_height - 1) / (height - 1)` 来调整输入这将精确对齐图像的4个角以及调整图像大小。如果为False将使用 :math:`new\_height / height` 来调整。默认值False。
- **size** (Union[tuple[int], list[int], None]) - 指定新Tensor的shape大小其shape为 :math:`(new\_height, new\_width)` 的tuple或者list。只有size或scale_factor能设置为None。默认值None。
- **scale_factor** (int, None) - 新Tensor大小的缩放因子其值为正整数。 `size``scale_factor` 有且只有一个能设置为None。默认值None。
- **align_corners** (bool) - 如果为True将使用 :math:`(new\_height - 1) / (height - 1)` 来调整输入这将精确对齐图像的4个角以及调整图像尺寸。如果为False将使用 :math:`new\_height / height` 来调整。默认值False。
**输出:**

View File

@ -5,7 +5,7 @@ mindspore.nn.SampledSoftmaxLoss
抽样交叉熵损失函数。
一般在类别数很大时使用,可加速训练交叉熵分类器。
一般在类别数很大时使用,可加速训练交叉熵为损失函数的分类器。
**参数:**

View File

@ -10,6 +10,8 @@ mindspore.nn.SoftMarginLoss
.. math::
\text{loss}(x, y) = \sum_i \frac{\log(1 + \exp(-y[i]*x[i]))}{\text{x.nelement}()}
:math:`x.nelement()` 代表 `x` 中元素的个数。
**参数:**
- **reduction** (str) - 指定应用于输出结果的计算方式。取值为"mean""sum",或"none"。默认值:"mean"。
@ -21,7 +23,7 @@ mindspore.nn.SoftMarginLoss
**输出:**
Tensor或Scalar如果 `reduction` 为"none"其shape与 `logits` 相同。否则,将返回scalar。
Tensor或Scalar如果 `reduction` 为"none"其shape与 `logits` 相同。否则,将返回Scalar。
**异常:**

View File

@ -13,7 +13,7 @@ mindspore.nn.Triu
**输入:**
- **x** (Tensor) - Triu的输入任意维度的Tensor其数据类型为Number。
- **k** (Int) - 对角线的索引。默认值0。
- **k** (int) - 对角线的索引。默认值0。
**输出:**

View File

@ -5,13 +5,13 @@ mindspore.nn.Unfold
从图像中提取滑窗的区域块。
输入为一个四维的Tensor数据格式为NCHW。
输入为一个四维的Tensor数据格式为(N, C, H, W)
**参数:**
- **ksizes** (Union[tuple[int], list[int]]):滑窗大小,其格式为[1, ksize_row, ksize_col, 1]的tuple或int列表
- **strides** (Union[tuple[int], list[int]]):滑窗步长,其格式为[1, stride_row, stride_col, 1]的tuple或int列表
- **rates** (Union[tuple[int], list[int]]):滑窗元素之间的空洞个数,其格式为[1, rate_row, rate_col, 1] 的tuple或整数list。
- **ksizes** (Union[tuple[int], list[int]]):滑窗大小,其格式为[1, ksize_row, ksize_col, 1]的int组成的tuple或list
- **strides** (Union[tuple[int], list[int]]):滑窗步长,其格式为[1, stride_row, stride_col, 1]的int组成的tuple或list
- **rates** (Union[tuple[int], list[int]]):滑窗元素之间的空洞个数,其格式为[1, rate_row, rate_col, 1] 的int组成的tuple或list。
- **padding** (str):填充模式,可选值有:"same"或"valid"的字符串,不区分大小写。默认值:"valid"。
- **same** - 指所提取的区域块的部分区域可以在原始图像之外此部分填充为0。
@ -19,11 +19,11 @@ mindspore.nn.Unfold
**输入:**
- **x** (Tensor) - 输入四维Tensor 其shape为[in_batch, in_depth, in_row, in_col],其数据类型为number
- **x** (Tensor) - 输入四维Tensor 其shape为[in_batch, in_depth, in_row, in_col],其数据类型为int
**输出:**
Tensor输出为四维Tensor数据类型与 `x` 相同其shape为[out_batch, out_depth, out_row, out_col],且 `out_batch``in_batch` 相同。
Tensor输出为四维Tensor数据类型与 `x` 相同其shape为(out_batch, out_depth, out_row, out_col),且 `out_batch``in_batch` 相同。
:math:`out\_depth = ksize\_row * ksize\_col * in\_depth`

View File

@ -6,7 +6,7 @@
在指定的通信组中汇聚Tensor。
.. note::
集合中所有进程的Tensor有相同的shape和格式。用户在使用之前需要设置环境变量运行下面的例子。获取详情请点击官方网站 `MindSpore <https://www.mindspore.cn/docs/api/zh-CN/master/api_python/mindspore.ops.html#communication-operators>`_
集合中所有进程的Tensor必须具有相同的shape和格式。用户在使用之前需要设置环境变量运行下面的例子。获取详情请点击官方网站 `MindSpore <https://www.mindspore.cn/docs/api/zh-CN/master/api_python/mindspore.ops.html#communication-operators>`_
**参数:**

View File

@ -10,7 +10,7 @@
**参数:**
- **op** (str) - 规约的具体操作如sum、max、和min。默认值ReduceOp.SUM。
- **op** (str) - 规约的具体操作,如"sum""max"、和"min"。默认值ReduceOp.SUM。
- **group** (str) - 工作的通信组。默认值:"GlobalComm.WORLD_COMM_GROUP"即Ascend平台为"hccl_world_group"GPU平台为"nccl_world_group" )。
**输入:**

View File

@ -27,7 +27,7 @@
tuple (Tensor)表示2个Tensor组成的tuple包含对应的索引和输入Tensor的最大值。
- **index** (Tensor) - 输入Tensor最大值的索引。如果 `keep_dims`true则输出Tensor的shape为 :math:`(x_1, x_2, ..., x_{axis-1}, 1, x_{axis+1}, ..., x_N)` 。否则shape为 :math:`(x_1, x_2, ..., x_{axis-1}, x_{axis+1}, ..., x_N)`
- **index** (Tensor) - 输入Tensor最大值的索引。如果 `keep_dims`True则输出Tensor的shape为 :math:`(x_1, x_2, ..., x_{axis-1}, 1, x_{axis+1}, ..., x_N)` 。否则shape为 :math:`(x_1, x_2, ..., x_{axis-1}, x_{axis+1}, ..., x_N)`
- **output_x** (Tensor) - 输入Tensor的最大值其shape与索引相同。
**异常:**

View File

@ -16,9 +16,9 @@
- **input_x** (Tensor)Argmax的输入任意维度的Tensor。支持的数据类型如下所示
- AscendFloat16和Float32。
- GPUFloat16和Float32。
- CPUFloat16、Float32和Float64。
- Ascendfloat16和float32。
- GPUfloat16和float32。
- CPUfloat16、float32和float64。
**输出:**

View File

@ -17,9 +17,9 @@
**参数:**
- **kernel_size** (Union[int, tuple[int]]) - 指定池化核尺寸大小,是一个整数,表示深度、高度和宽度或者是含3个分别表示深度、高度和宽度整数的tuple。默认值1。
- **strides** (Union[int, tuple[int]]) - 池化操作的移动步长,是一个整数,表示移动深度、高度和宽度或者是含3个分别表示移动深度、高度和宽度整数的tuple。默认值1。
- **pad_mode** (str) - 指定池化填充模式,可选值有:"SAME"、"VALID"或"PAD"。默认值:"VALID"。
- **kernel_size** (Union[int, tuple[int]]) - 指定池化核尺寸大小,是一个整数,对应深度、高度和宽度或者是含3个分别对应深度、高度和宽度整数的tuple。默认值1。
- **strides** (Union[int, tuple[int]]) - 池化操作的移动步长,是一个整数,对应移动深度、高度和宽度或者是含3个分别表对应移动深度、高度和宽度整数的tuple。默认值1。
- **pad_mode** (str) - 指定池化填充模式,可选值有:"same"、"valid"或"pad"。默认值:"valid"。
- **same** - 输出的深度、高度和宽度分别与输入整除 `stride` 后的值相同。
- **valid** - 在不填充的前提下返回有效计算所得的输出。不满足计算的多余像素会被丢弃。

View File

@ -16,14 +16,14 @@ mindspore.ops.MaxPool3D
- **kernel_size** (Union[int, tuple[int]]) - 指定池化核尺寸大小。整数类型表示池化核深度、高和宽或者是三个整数组成的元组表示深、高和宽。默认值1。
- **strides** (Union[int, tuple[int]]) - 池化操作的移动步长整数类型表示深、高和宽的移动步长或者是三个整数组成的元组表示深、高和宽移动步长。默认值1。
- **pad_mode** (str) - 指定池化填充模式,可选值有:"same"或"valid"。默认值:"valid"。
- **pad_mode** (str) - 指定池化填充模式,可选值有:"same"、"valid"或"pad"。默认值:"valid"。
- same输出的宽度于输入整数 `stride` 后的值相同。
- valid在不填充的前提下返回有效计算所得的输出。不满足计算的多余像素会被丢弃。
- pad对输入进行填充。 在输入的深度、高度和宽度方向上填充 `pad` 大小的0。如果设置此模式 `pad` 必须大于或等于0。
- pad对输入进行填充。 在输入的深度、高度和宽度方向上填充 `pad` 大小的0。如果设置此模式 `pad_list` 必须大于或等于0。
- **pad_list** (Union(int, tuple[int])) - 池化填充方式。默认值0。如果 `pad` 是一个整数,则头尾部、顶部,底部,左边和右边的填充都是相同的,等于 `pad` 。如果 `pad` 是六个整数的tuple则头尾部、顶部、底部、左边和右边的填充分别等于填充pad[0]、pad[1]、pad[2]、pad[3]、pad[4]和pad[5]。
- **ceil_mode** (bool) - 是否使用ceil函数计算输出高度和宽度。默认值None。
- **ceil_mode** (Union[bool, None]) - 是否使用ceil函数计算输出高度和宽度。默认值None。
- **data_format** (str) - 输入和输出的数据格式。目前仅支持'NCDHW'。默认值:'NCDHW'。
**输入:**

View File

@ -307,7 +307,7 @@ class ReLU6(Cell):
.. math::
\min(\max(0, x), 6).
Y = \min(\max(0, x), 6).
The input is a Tensor of any valid shape.
@ -621,7 +621,7 @@ class PReLU(Cell):
.. math::
prelu(x_i)= \max(0, x_i) + w * \min(0, x_i),
PReLU(x_i)= \max(0, x_i) + w * \min(0, x_i),
where :math:`x_i` is an element of an channel of the input.

View File

@ -706,7 +706,7 @@ class Pad(Cell):
Raises:
TypeError: If `paddings` is not a tuple.
ValueError: If length of `paddings` is more than 4 or its shape is not (n, 2).
ValueError: If length of `paddings` is more than 4 or its shape is not (N, 2).
ValueError: If `mode` is not one of 'CONSTANT', 'REFLECT', 'SYMMETRIC'.
Supported Platforms:

View File

@ -794,7 +794,7 @@ class LayerNorm(Cell):
epsilon (float): A value added to the denominator for numerical stability. Default: 1e-7.
Inputs:
- **x** (Tensor) - The shape of 'x' is :math:`(x_1, x_2, ..., x_R)`,
- **x** (Tensor) - The shape of `x` is :math:`(x_1, x_2, ..., x_R)`,
and `input_shape[begin_norm_axis:]` is equal to `normalized_shape`.
Outputs:

View File

@ -332,10 +332,15 @@ class GRUCell(RNNCellBase):
`Learning Phrase Representations using RNN EncoderDecoder for Statistical Machine Translation
<https://aclanthology.org/D14-1179.pdf>`_.
The LSTMCell can be simplified in NN layer, the following formula:
.. math::
h^{'},c^{'} = LSTMCell(x, (h_0, c_0))
Args:
input_size (int): Number of features of input.
hidden_size (int): Number of features of hidden layer.
has_bias (bool): Whether the cell has bias `b_ih` and `b_hh`. Default: True.
has_bias (bool): Whether the cell has bias `b_in` and `b_hn`. Default: True.
Inputs:
- **x** (Tensor) - Tensor of shape (batch_size, `input_size`).

View File

@ -612,7 +612,7 @@ class RNN(_RNNBase):
use this input when **x** has padding elements.
Outputs:
Tuple, a tuple contains (`output`, `h_n`).
Tuple, a tuple contains (`output`, `hx_n`).
- **output** (Tensor) - Tensor of shape (seq_len, batch_size, num_directions * `hidden_size`) or
(batch_size, seq_len, num_directions * `hidden_size`).

View File

@ -330,7 +330,7 @@ class RMSELoss(LossBase):
and they should be broadcasted to each other.
Outputs:
Tensor, weighted loss float tensor and its shape is zero.
Tensor, weighted loss float tensor and its shape is ().
Supported Platforms:
``Ascend`` ``GPU`` ``CPU``
@ -510,6 +510,8 @@ class SoftMarginLoss(LossBase):
.. math::
\text{loss}(x, y) = \sum_i \frac{\log(1 + \exp(-y[i]*x[i]))}{\text{x.nelement}()}
:math:`x.nelement()` represents the number of element of `x` .
Args:
reduction (str): Apply specific reduction method to the output: 'none', 'mean', 'sum'. Default: "mean".

View File

@ -1712,7 +1712,7 @@ class MaxPool3D(PrimitiveWithInfer):
strides (Union[int, tuple[int]]): The distance of kernel moving, an int number that represents
not only the depth, height of movement but also the width of movement,, or a tuple of three int numbers that
represent depth, height and width of movement respectively. Default: 1.
pad_mode (str): The optional value of pad mode is "same" or "valid".
pad_mode (str): The optional value of pad mode is "same", "valid" or "pad".
Default: "valid".
- same: Adopts the way of completion. The height and width of the output will be the same as
@ -1724,13 +1724,14 @@ class MaxPool3D(PrimitiveWithInfer):
will be returned without padding. Extra pixels will be discarded.
- pad: Implicit paddings on both sides of the input in depth, height and width. The number of "pad" will
be padded to the input Tensor borders. "pad" must be greater than or equal to 0.
be padded to the input Tensor borders. "pad_list" must be greater than or equal to 0.
pad_list (Union(int, tuple[int])): The pad value to be filled. Default: 0. If `pad` is an integer, the paddings
of head, tail, top, bottom, left and right are the same, equal to pad. If `pad` is a tuple of six
integers, the padding of head, tail, top, bottom, left and right equals to pad[0], pad[1], pad[2],
pad[3], pad[4] and pad[5] correspondingly.
ceil_mode (bool): Whether to use ceil instead of floor to calculate output shape. Only effective in "pad" mode.
ceil_mode (Union[bool, None]): Whether to use ceil instead of floor to calculate output shape.
Only effective in "pad" mode.
When "pad_mode" is "pad" and "ceil_mode" is "None", "ceil_mode" will be set as "False". Default: None.
data_format (str) : The optional value for data format. Currently only support 'NCDHW'. Default: 'NCDHW'.
@ -7530,8 +7531,8 @@ class AvgPool3D(Primitive):
strides (Union[int, tuple[int]]): The distance of kernel moving, an int number that represents
the depth, height and width of movement are both strides, or a tuple of three int numbers that
represent depth, height and width of movement respectively. Default: 1.
pad_mode (str): The optional value for pad mode, is "SAME", "VALID", "PAD".
Default: "VALID".
pad_mode (str): The optional value for pad mode, is "same", "valid", "pad".
Default: "valid".
- same: Adopts the way of completion. The depth, height and width of the output will be the same as
the input. The total number of padding will be calculated in depth, horizontal and vertical