modify the format of API files

This commit is contained in:
zhangyi 2022-08-11 15:35:44 +08:00
parent f3817f853d
commit ce134ea8a8
6 changed files with 91 additions and 91 deletions

View File

@ -16,7 +16,7 @@ mindspore.nn.Conv1d
:math:`\text{weight}(C_{\text{out}_j}, k)` 是shape为 :math:`\text{kernel_size}` 的卷积核切片,其中 :math:`\text{kernel_size}` 是卷积核的宽度。 :math:`\text{bias}` 为偏置参数, :math:`\text{X}` 为输入Tensor。 :math:`\text{weight}(C_{\text{out}_j}, k)` 是shape为 :math:`\text{kernel_size}` 的卷积核切片,其中 :math:`\text{kernel_size}` 是卷积核的宽度。 :math:`\text{bias}` 为偏置参数, :math:`\text{X}` 为输入Tensor。
完整卷积核的shape为 :math:`(C_{out}, C_{in} / \text{group}, \text{kernel_size})` ,其中 `group` 是在空间维度上分割输入 `x` 的组数。 完整卷积核的shape为 :math:`(C_{out}, C_{in} / \text{group}, \text{kernel_size})` ,其中 `group` 是在空间维度上分割输入 `x` 的组数。
详细介绍请参考论文 `Gradient Based Learning Applied to Document Recognition <http://vision.stanford.edu/cs598_spring07/papers/Lecun98.pdf>`_ 详细介绍请参考论文 `Gradient Based Learning Applied to Document Recognition <http://vision.stanford.edu/cs598_spring07/papers/Lecun98.pdf>`_
参数: 参数:
- **in_channels** (int) - Conv1d层输入Tensor的空间维度。 - **in_channels** (int) - Conv1d层输入Tensor的空间维度。
- **out_channels** (int) - Conv1d层输出Tensor的空间维度。 - **out_channels** (int) - Conv1d层输出Tensor的空间维度。
@ -57,6 +57,7 @@ mindspore.nn.Conv1d
.. math:: .. math::
L_{out} \left \lfloor{\frac{L_{in} + 2 \times padding - (\text{kernel_size} - 1) \times L_{out} \left \lfloor{\frac{L_{in} + 2 \times padding - (\text{kernel_size} - 1) \times
\text{dilation} - 1 }{\text{stride}} + 1} \right \rfloor \text{dilation} - 1 }{\text{stride}} + 1} \right \rfloor
异常: 异常:
- **TypeError** - `in_channels``out_channels``kernel_size``stride``padding``dilation` 不是int。 - **TypeError** - `in_channels``out_channels``kernel_size``stride``padding``dilation` 不是int。
- **ValueError** - `in_channels``out_channels``kernel_size``stride``dilation` 小于1。 - **ValueError** - `in_channels``out_channels``kernel_size``stride``dilation` 小于1。

View File

@ -3,55 +3,55 @@ mindspore.nn.Conv2d
.. py:class:: mindspore.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, pad_mode="same", padding=0, dilation=1, group=1, has_bias=False, weight_init="normal", bias_init="zeros", data_format="NCHW") .. py:class:: mindspore.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, pad_mode="same", padding=0, dilation=1, group=1, has_bias=False, weight_init="normal", bias_init="zeros", data_format="NCHW")
二维卷积层。 二维卷积层。
对输入Tensor计算二维卷积该Tensor的常见shape为 :math:`(N, C_{in}, H_{in}, W_{in})`,其中 :math:`N` 为batch size:math:`C_{in}` 为空间维度,:math:`H_{in}, W_{in}` 分别为特征层的高度和宽度。对于每个batch中的Tensor其shape为 :math:`(C_{in}, H_{in}, W_{in})` ,公式定义如下: 对输入Tensor计算二维卷积该Tensor的常见shape为 :math:`(N, C_{in}, H_{in}, W_{in})`,其中 :math:`N` 为batch size:math:`C_{in}` 为空间维度,:math:`H_{in}, W_{in}` 分别为特征层的高度和宽度。对于每个batch中的Tensor其shape为 :math:`(C_{in}, H_{in}, W_{in})` ,公式定义如下:
.. math:: .. math::
\text{out}(N_i, C_{\text{out}_j}) = \text{bias}(C_{\text{out}_j}) + \text{out}(N_i, C_{\text{out}_j}) = \text{bias}(C_{\text{out}_j}) +
\sum_{k = 0}^{C_{in} - 1} \text{ccor}({\text{weight}(C_{\text{out}_j}, k), \text{X}(N_i, k)}) \sum_{k = 0}^{C_{in} - 1} \text{ccor}({\text{weight}(C_{\text{out}_j}, k), \text{X}(N_i, k)})
其中,:math:`ccor``cross-correlation <https://en.wikipedia.org/wiki/Cross-correlation>`_ :math:`C_{in}` 为输入空间维度, :math:`out_{j}` 对应输出的第 :math:`j` 个空间维度,:math:`j` 的范围在 :math:`[0C_{out}-1]` 内, 其中,:math:`ccor``cross-correlation <https://en.wikipedia.org/wiki/Cross-correlation>`_ :math:`C_{in}` 为输入空间维度, :math:`out_{j}` 对应输出的第 :math:`j` 个空间维度,:math:`j` 的范围在 :math:`[0C_{out}-1]` 内,
:math:`\text{weight}(C_{\text{out}_j}, k)`是shape为 :math:`(\text{kernel_size[0]}, \text{kernel_size[1]})` 的卷积核切片,其中 :math:`\text{kernel_size[0]}`:math:`\text{kernel_size[1]}` 分别是卷积核的高度和宽度。 :math:`\text{bias}` 为偏置参数, :math:`\text{X}` 为输入Tensor。 :math:`\text{weight}(C_{\text{out}_j}, k)`是shape为 :math:`(\text{kernel_size[0]}, \text{kernel_size[1]})` 的卷积核切片,其中 :math:`\text{kernel_size[0]}`:math:`\text{kernel_size[1]}` 分别是卷积核的高度和宽度。 :math:`\text{bias}` 为偏置参数, :math:`\text{X}` 为输入Tensor。
此时输入Tensor对应的 `data_format` 为"NCHW"完整卷积核的shape为 :math:`(C_{out}, C_{in} / \text{group}, \text{kernel_size[0]}, \text{kernel_size[1]})` ,其中 `group` 是在空间维度上分割输入 `x` 的组数。如果输入Tensor对应的 `data_format` 为"NHWC"完整卷积核的shape则为 :math:`(C_{out}, \text{kernel_size[0]}, \text{kernel_size[1]}), C_{in} / \text{group}` 此时输入Tensor对应的 `data_format` 为"NCHW"完整卷积核的shape为 :math:`(C_{out}, C_{in} / \text{group}, \text{kernel_size[0]}, \text{kernel_size[1]})` ,其中 `group` 是在空间维度上分割输入 `x` 的组数。如果输入Tensor对应的 `data_format` 为"NHWC"完整卷积核的shape则为 :math:`(C_{out}, \text{kernel_size[0]}, \text{kernel_size[1]}), C_{in} / \text{group}`
详细介绍请参考论文 `Gradient Based Learning Applied to Document Recognition <http://vision.stanford.edu/cs598_spring07/papers/Lecun98.pdf>`_ 详细介绍请参考论文 `Gradient Based Learning Applied to Document Recognition <http://vision.stanford.edu/cs598_spring07/papers/Lecun98.pdf>`_
参数: 参数:
- **in_channels** (`int`) - Conv2d层输入Tensor的空间维度。 - **in_channels** (`int`) - Conv2d层输入Tensor的空间维度。
- **out_channels** (`dict`) - Conv2d层输出Tensor的空间维度。 - **out_channels** (`dict`) - Conv2d层输出Tensor的空间维度。
- **kernel_size** (`Union[int, tuple[int]]`) - 指定二维卷积核的高度和宽度。数据类型为整型或两个整型的tuple。一个整数表示卷积核的高度和宽度均为该值。两个整数的tuple分别表示卷积核的高度和宽度。 - **kernel_size** (`Union[int, tuple[int]]`) - 指定二维卷积核的高度和宽度。数据类型为整型或两个整型的tuple。一个整数表示卷积核的高度和宽度均为该值。两个整数的tuple分别表示卷积核的高度和宽度。
- **stride** (`Union[int, tuple[int]]`) - 二维卷积核的移动步长。数据类型为整型或两个整型的tuple。一个整数表示在高度和宽度方向的移动步长均为该值。两个整数的tuple分别表示在高度和宽度方向的移动步长。默认值1。 - **stride** (`Union[int, tuple[int]]`) - 二维卷积核的移动步长。数据类型为整型或两个整型的tuple。一个整数表示在高度和宽度方向的移动步长均为该值。两个整数的tuple分别表示在高度和宽度方向的移动步长。默认值1。
- **pad_mode** (`str`) - 指定填充模式。可选值为"same"、"valid"、"pad"。默认值:"same"。 - **pad_mode** (`str`) - 指定填充模式。可选值为"same"、"valid"、"pad"。默认值:"same"。
- **same**:输出的高度和宽度分别与输入整除 `stride` 后的值相同。若设置该模式,`padding` 的值必须为0。 - **same**:输出的高度和宽度分别与输入整除 `stride` 后的值相同。若设置该模式,`padding` 的值必须为0。
- **valid**:在不填充的前提下返回有效计算所得的输出。不满足计算的多余像素会被丢弃。如果设置此模式,则 `padding` 的值必须为0。 - **valid**:在不填充的前提下返回有效计算所得的输出。不满足计算的多余像素会被丢弃。如果设置此模式,则 `padding` 的值必须为0。
- **pad**:对输入进行填充。在输入的高度和宽度方向上填充 `padding` 大小的0。如果设置此模式 `padding` 必须大于或等于0。 - **pad**:对输入进行填充。在输入的高度和宽度方向上填充 `padding` 大小的0。如果设置此模式 `padding` 必须大于或等于0。
- **padding** (`Union[int, tuple[int]]`) - 输入的高度和宽度方向上填充的数量。数据类型为int或包含4个整数的tuple。如果 `padding` 是一个整数,那么上、下、左、右的填充都等于 `padding` 。如果 `padding` 是一个有4个整数的tuple那么上、下、左、右的填充分别等于 `padding[0]``padding[1]``padding[2]``padding[3]` 。值应该要大于等于0默认值0。 - **padding** (`Union[int, tuple[int]]`) - 输入的高度和宽度方向上填充的数量。数据类型为int或包含4个整数的tuple。如果 `padding` 是一个整数,那么上、下、左、右的填充都等于 `padding` 。如果 `padding` 是一个有4个整数的tuple那么上、下、左、右的填充分别等于 `padding[0]``padding[1]``padding[2]``padding[3]` 。值应该要大于等于0默认值0。
- **dilation** (`Union[int, tuple[int]]`) - 二维卷积核膨胀尺寸。数据类型为整型或具有两个整型的tuple。若 :math:`k > 1` 则kernel间隔 `k` 个元素进行采样。垂直和水平方向上的 `k` ,其取值范围分别为[1, H]和[1, W]。默认值1。 - **dilation** (`Union[int, tuple[int]]`) - 二维卷积核膨胀尺寸。数据类型为整型或具有两个整型的tuple。若 :math:`k > 1` 则kernel间隔 `k` 个元素进行采样。垂直和水平方向上的 `k` ,其取值范围分别为[1, H]和[1, W]。默认值1。
- **group** (`int`) - 将过滤器拆分为组, `in_channels``out_channels` 必须可被 `group` 整除。如果组数等于 `in_channels``out_channels` 这个二维卷积层也被称为二维深度卷积层。默认值1. - **group** (`int`) - 将过滤器拆分为组, `in_channels``out_channels` 必须可被 `group` 整除。如果组数等于 `in_channels``out_channels` 这个二维卷积层也被称为二维深度卷积层。默认值1.
- **has_bias** (`bool`) - Conv2d层是否添加偏置参数。默认值False。 - **has_bias** (`bool`) - Conv2d层是否添加偏置参数。默认值False。
- **weight_init** (Union[Tensor, str, Initializer, numbers.Number]) - 权重参数的初始化方法。它可以是TensorstrInitializer或numbers.Number。当使用str时可选"TruncatedNormal""Normal""Uniform""HeUniform"和"XavierUniform"分布以及常量"One"和"Zero"分布的值,可接受别名"xavier_uniform""he_uniform""ones"和"zeros"。上述字符串大小写均可。更多细节请参考Initializer的值。默认值"normal"。 - **weight_init** (Union[Tensor, str, Initializer, numbers.Number]) - 权重参数的初始化方法。它可以是TensorstrInitializer或numbers.Number。当使用str时可选"TruncatedNormal""Normal""Uniform""HeUniform"和"XavierUniform"分布以及常量"One"和"Zero"分布的值,可接受别名"xavier_uniform""he_uniform""ones"和"zeros"。上述字符串大小写均可。更多细节请参考Initializer的值。默认值"normal"。
- **bias_init** (Union[Tensor, str, Initializer, numbers.Number]) - 偏置参数的初始化方法。可以使用的初始化方法与"weight_init"相同。更多细节请参考Initializer的值。默认值"zeros"。 - **bias_init** (Union[Tensor, str, Initializer, numbers.Number]) - 偏置参数的初始化方法。可以使用的初始化方法与"weight_init"相同。更多细节请参考Initializer的值。默认值"zeros"。
- **data_format** (`str`) - 数据格式的可选值有"NHWC""NCHW"。默认值:"NCHW"。 - **data_format** (`str`) - 数据格式的可选值有"NHWC""NCHW"。默认值:"NCHW"。
输入: 输入:
- **x** (Tensor) - Shape为 :math:`(N, C_{in}, H_{in}, W_{in})` 或者 :math:`(N, H_{in}, W_{in}, C_{in})` 的Tensor。 - **x** (Tensor) - Shape为 :math:`(N, C_{in}, H_{in}, W_{in})` 或者 :math:`(N, H_{in}, W_{in}, C_{in})` 的Tensor。
输出: 输出:
Tensorshape为 :math:`(N, C_{out}, H_{out}, W_{out})` 或者 :math:`(N, H_{out}, W_{out}, C_{out})` Tensorshape为 :math:`(N, C_{out}, H_{out}, W_{out})` 或者 :math:`(N, H_{out}, W_{out}, C_{out})`
pad_mode为"same"时: pad_mode为"same"时:
.. math:: .. math::
\begin{array}{ll} \\ \begin{array}{ll} \\
H_{out} \left \lceil{\frac{H_{in}}{\text{stride[0]}}} \right \rceil \\ H_{out} \left \lceil{\frac{H_{in}}{\text{stride[0]}}} \right \rceil \\
W_{out} \left \lceil{\frac{W_{in}}{\text{stride[1]}}} \right \rceil \\ W_{out} \left \lceil{\frac{W_{in}}{\text{stride[1]}}} \right \rceil \\
\end{array} \end{array}
pad_mode为"valid"时: pad_mode为"valid"时:
.. math:: .. math::
\begin{array}{ll} \\ \begin{array}{ll} \\
H_{out} \left \lceil{\frac{H_{in} - \text{dilation[0]} \times (\text{kernel_size[0]} - 1) } H_{out} \left \lceil{\frac{H_{in} - \text{dilation[0]} \times (\text{kernel_size[0]} - 1) }
{\text{stride[0]}}} \right \rceil \\ {\text{stride[0]}}} \right \rceil \\
@ -59,9 +59,9 @@ mindspore.nn.Conv2d
{\text{stride[1]}}} \right \rceil \\ {\text{stride[1]}}} \right \rceil \\
\end{array} \end{array}
pad_mode为"pad"时: pad_mode为"pad"时:
.. math:: .. math::
\begin{array}{ll} \\ \begin{array}{ll} \\
H_{out} \left \lfloor{\frac{H_{in} + padding[0] + padding[1] - (\text{kernel_size[0]} - 1) \times H_{out} \left \lfloor{\frac{H_{in} + padding[0] + padding[1] - (\text{kernel_size[0]} - 1) \times
\text{dilation[0]} - 1 }{\text{stride[0]}} + 1} \right \rfloor \\ \text{dilation[0]} - 1 }{\text{stride[0]}} + 1} \right \rfloor \\
@ -69,12 +69,12 @@ mindspore.nn.Conv2d
\text{dilation[1]} - 1 }{\text{stride[1]}} + 1} \right \rfloor \\ \text{dilation[1]} - 1 }{\text{stride[1]}} + 1} \right \rfloor \\
\end{array} \end{array}
异常: 异常:
- **TypeError** - 如果 `in_channels` `out_channels` 或者 `group` 不是整数。 - **TypeError** - 如果 `in_channels` `out_channels` 或者 `group` 不是整数。
- **TypeError** - 如果 `kernel_size` `stride``padding` 或者 `dilation` 既不是整数也不是tuple。 - **TypeError** - 如果 `kernel_size` `stride``padding` 或者 `dilation` 既不是整数也不是tuple。
- **ValueError** - 如果 `in_channels` `out_channels``kernel_size` `stride` 或者 `dilation` 小于1。 - **ValueError** - 如果 `in_channels` `out_channels``kernel_size` `stride` 或者 `dilation` 小于1。
- **ValueError** - 如果 `padding` 小于0。 - **ValueError** - 如果 `padding` 小于0。
- **ValueError** - 如果 `pad_mode` 不是"same""valid"或"pad"。 - **ValueError** - 如果 `pad_mode` 不是"same""valid"或"pad"。
- **ValueError** - 如果 `padding` 是一个长度不等于4的tuple。 - **ValueError** - 如果 `padding` 是一个长度不等于4的tuple。
- **ValueError** - 如果 `pad_mode` 不等于"pad"且 `padding` 不等于(0,0,0,0)。 - **ValueError** - 如果 `pad_mode` 不等于"pad"且 `padding` 不等于(0,0,0,0)。
- **ValueError** - 如果 `data_format` 既不是"NCHW"也不是"NHWC"。 - **ValueError** - 如果 `data_format` 既不是"NCHW"也不是"NHWC"。

View File

@ -3,49 +3,49 @@ mindspore.nn.Conv2dTranspose
.. py:class:: mindspore.nn.Conv2dTranspose(in_channels, out_channels, kernel_size, stride=1, pad_mode="same", padding=0, dilation=1, group=1, has_bias=False, weight_init="normal", bias_init="zeros") .. py:class:: mindspore.nn.Conv2dTranspose(in_channels, out_channels, kernel_size, stride=1, pad_mode="same", padding=0, dilation=1, group=1, has_bias=False, weight_init="normal", bias_init="zeros")
二维转置卷积层。 二维转置卷积层。
计算二维转置卷积可以视为Conv2d对输入求梯度也称为反卷积实际不是真正的反卷积 计算二维转置卷积可以视为Conv2d对输入求梯度也称为反卷积实际不是真正的反卷积
输入的shape通常为 :math:`(N, C_{in}, H_{in}, W_{in})` ,其中 :math:`N` 是batch size:math:`C_{in}` 是空间维度, :math:`H_{in}, W_{in}` 分别为特征层的高度和宽度。 输入的shape通常为 :math:`(N, C_{in}, H_{in}, W_{in})` ,其中 :math:`N` 是batch size:math:`C_{in}` 是空间维度, :math:`H_{in}, W_{in}` 分别为特征层的高度和宽度。
当Conv2d和ConvTranspose2d使用相同的参数初始化时`pad_mode` 设置为"pad",它们会在输入的高度和宽度方向上填充 :math:`dilation * (kernel\_size - 1) - padding` 个零这种情况下它们的输入和输出shape是互逆的。 当Conv2d和ConvTranspose2d使用相同的参数初始化时`pad_mode` 设置为"pad",它们会在输入的高度和宽度方向上填充 :math:`dilation * (kernel\_size - 1) - padding` 个零这种情况下它们的输入和输出shape是互逆的。
然而,当 `stride` 大于1时Conv2d会将多个输入的shape映射到同一个输出shape。反卷积网络可以参考 `Deconvolutional Networks <https://www.matthewzeiler.com/mattzeiler/deconvolutionalnetworks.pdf>`_ 然而,当 `stride` 大于1时Conv2d会将多个输入的shape映射到同一个输出shape。反卷积网络可以参考 `Deconvolutional Networks <https://www.matthewzeiler.com/mattzeiler/deconvolutionalnetworks.pdf>`_
参数: 参数:
- **in_channels** (`int`) - Conv2dTranspose层输入Tensor的空间维度。 - **in_channels** (`int`) - Conv2dTranspose层输入Tensor的空间维度。
- **out_channels** (`dict`) - Conv2dTranspose层输出Tensor的空间维度。 - **out_channels** (`dict`) - Conv2dTranspose层输出Tensor的空间维度。
- **kernel_size** (`Union[int, tuple[int]]`) - 指定二维卷积核的高度和宽度。数据类型为整型或两个整型的tuple。一个整数表示卷积核的高度和宽度均为该值。两个整数的tuple分别表示卷积核的高度和宽度。 - **kernel_size** (`Union[int, tuple[int]]`) - 指定二维卷积核的高度和宽度。数据类型为整型或两个整型的tuple。一个整数表示卷积核的高度和宽度均为该值。两个整数的tuple分别表示卷积核的高度和宽度。
- **stride** (`Union[int, tuple[int]]`) - 二维卷积核的移动步长。数据类型为整型或两个整型的tuple。一个整数表示在高度和宽度方向的移动步长均为该值。两个整数的tuple分别表示在高度和宽度方向的移动步长。默认值1。 - **stride** (`Union[int, tuple[int]]`) - 二维卷积核的移动步长。数据类型为整型或两个整型的tuple。一个整数表示在高度和宽度方向的移动步长均为该值。两个整数的tuple分别表示在高度和宽度方向的移动步长。默认值1。
- **pad_mode** (`str`) - 指定填充模式。可选值为"same"、"valid"、"pad"。默认值:"same"。 - **pad_mode** (`str`) - 指定填充模式。可选值为"same"、"valid"、"pad"。默认值:"same"。
- **same**:输出的高度和宽度分别与输入整除 `stride` 后的值相同。若设置该模式,`padding` 的值必须为0。 - **same**:输出的高度和宽度分别与输入整除 `stride` 后的值相同。若设置该模式,`padding` 的值必须为0。
- **valid**:在不填充的前提下返回有效计算所得的输出。不满足计算的多余像素会被丢弃。如果设置此模式,则 `padding` 的值必须为0。 - **valid**:在不填充的前提下返回有效计算所得的输出。不满足计算的多余像素会被丢弃。如果设置此模式,则 `padding` 的值必须为0。
- **pad**:对输入进行填充。在输入的高度和宽度方向上填充 `padding` 大小的0。如果设置此模式 `padding` 必须大于或等于0。 - **pad**:对输入进行填充。在输入的高度和宽度方向上填充 `padding` 大小的0。如果设置此模式 `padding` 必须大于或等于0。
- **padding** (`Union[int, tuple[int]]`) - 输入的高度和宽度方向上填充的数量。数据类型为整型或包含四个整数的tuple。如果 `padding` 是一个整数,那么上、下、左、右的填充都等于 `padding` 。如果 `padding` 是一个有四个整数的tuple那么上、下、左、右的填充分别等于 `padding[0]``padding[1]``padding[2]``padding[3]` 。值应该要大于等于0默认值0。 - **padding** (`Union[int, tuple[int]]`) - 输入的高度和宽度方向上填充的数量。数据类型为整型或包含四个整数的tuple。如果 `padding` 是一个整数,那么上、下、左、右的填充都等于 `padding` 。如果 `padding` 是一个有四个整数的tuple那么上、下、左、右的填充分别等于 `padding[0]``padding[1]``padding[2]``padding[3]` 。值应该要大于等于0默认值0。
- **dilation** (`Union[int, tuple[int]]`) - 二维卷积核膨胀尺寸。数据类型为整型或具有两个整型的tuple。若 :math:`k > 1` 则kernel间隔 `k` 个元素进行采样。高度和宽度方向上的 `k` ,其取值范围分别为[1, H]和[1, W]。默认值1。 - **dilation** (`Union[int, tuple[int]]`) - 二维卷积核膨胀尺寸。数据类型为整型或具有两个整型的tuple。若 :math:`k > 1` 则kernel间隔 `k` 个元素进行采样。高度和宽度方向上的 `k` ,其取值范围分别为[1, H]和[1, W]。默认值1。
- **group** (`int`) - 将过滤器拆分为组, `in_channels``out_channels` 必须可被 `group` 整除。如果组数等于 `in_channels``out_channels` 这个二维卷积层也被称为二维深度卷积层。默认值1. - **group** (`int`) - 将过滤器拆分为组, `in_channels``out_channels` 必须可被 `group` 整除。如果组数等于 `in_channels``out_channels` 这个二维卷积层也被称为二维深度卷积层。默认值1.
- **has_bias** (`bool`) - Conv2dTranspose层是否添加偏置参数。默认值False。 - **has_bias** (`bool`) - Conv2dTranspose层是否添加偏置参数。默认值False。
- **weight_init** (Union[Tensor, str, Initializer, numbers.Number]) - 权重参数的初始化方法。它可以是TensorstrInitializer或numbers.Number。当使用str时可选"TruncatedNormal""Normal""Uniform""HeUniform"和"XavierUniform"分布以及常量"One"和"Zero"分布的值,可接受别名"xavier_uniform""he_uniform""ones"和"zeros"。上述字符串大小写均可。更多细节请参考Initializer的值。默认值"normal"。 - **weight_init** (Union[Tensor, str, Initializer, numbers.Number]) - 权重参数的初始化方法。它可以是TensorstrInitializer或numbers.Number。当使用str时可选"TruncatedNormal""Normal""Uniform""HeUniform"和"XavierUniform"分布以及常量"One"和"Zero"分布的值,可接受别名"xavier_uniform""he_uniform""ones"和"zeros"。上述字符串大小写均可。更多细节请参考Initializer的值。默认值"normal"。
- **bias_init** (Union[Tensor, str, Initializer, numbers.Number]) - 偏置参数的初始化方法。可以使用的初始化方法与"weight_init"相同。更多细节请参考Initializer的值。默认值"zeros"。 - **bias_init** (Union[Tensor, str, Initializer, numbers.Number]) - 偏置参数的初始化方法。可以使用的初始化方法与"weight_init"相同。更多细节请参考Initializer的值。默认值"zeros"。
输入: 输入:
- **x** (Tensor) - Shape 为 :math:`(N, C_{in}, H_{in}, W_{in})` 的Tensor。 - **x** (Tensor) - Shape 为 :math:`(N, C_{in}, H_{in}, W_{in})` 的Tensor。
输出: 输出:
Tensorshape为 :math:`(N, C_{out}, H_{out}, W_{out})` Tensorshape为 :math:`(N, C_{out}, H_{out}, W_{out})`
pad_mode为"same"时: pad_mode为"same"时:
.. math:: .. math::
\begin{array}{ll} \\ \begin{array}{ll} \\
H_{out} \left \lfloor{\frac{H_{in}}{\text{stride[0]}} + 1} \right \rfloor \\ H_{out} \left \lfloor{\frac{H_{in}}{\text{stride[0]}} + 1} \right \rfloor \\
W_{out} \left \lfloor{\frac{W_{in}}{\text{stride[1]}} + 1} \right \rfloor \\ W_{out} \left \lfloor{\frac{W_{in}}{\text{stride[1]}} + 1} \right \rfloor \\
\end{array} \end{array}
pad_mode为"valid"时: pad_mode为"valid"时:
.. math:: .. math::
\begin{array}{ll} \\ \begin{array}{ll} \\
H_{out} \left \lfloor{\frac{H_{in} - \text{dilation[0]} \times (\text{kernel_size[0]} - 1) } H_{out} \left \lfloor{\frac{H_{in} - \text{dilation[0]} \times (\text{kernel_size[0]} - 1) }
{\text{stride[0]}} + 1} \right \rfloor \\ {\text{stride[0]}} + 1} \right \rfloor \\
@ -53,9 +53,9 @@ mindspore.nn.Conv2dTranspose
{\text{stride[1]}} + 1} \right \rfloor \\ {\text{stride[1]}} + 1} \right \rfloor \\
\end{array} \end{array}
pad_mode为"pad"时: pad_mode为"pad"时:
.. math:: .. math::
\begin{array}{ll} \\ \begin{array}{ll} \\
H_{out} \left \lfloor{\frac{H_{in} + padding[0] + padding[1] - (\text{dilation[0]} - 1) \times H_{out} \left \lfloor{\frac{H_{in} + padding[0] + padding[1] - (\text{dilation[0]} - 1) \times
\text{kernel_size[0]} - 1 }{\text{stride[0]}} + 1} \right \rfloor \\ \text{kernel_size[0]} - 1 }{\text{stride[0]}} + 1} \right \rfloor \\
@ -63,11 +63,11 @@ mindspore.nn.Conv2dTranspose
\text{kernel_size[1]} - 1 }{\text{stride[1]}} + 1} \right \rfloor \\ \text{kernel_size[1]} - 1 }{\text{stride[1]}} + 1} \right \rfloor \\
\end{array} \end{array}
异常: 异常:
- **TypeError** - 如果 `in_channels` `out_channels` 或者 `group` 不是整数。 - **TypeError** - 如果 `in_channels` `out_channels` 或者 `group` 不是整数。
- **TypeError** - 如果 `kernel_size` `stride` `padding` 或者 `dilation` 既不是整数也不是tuple。 - **TypeError** - 如果 `kernel_size` `stride` `padding` 或者 `dilation` 既不是整数也不是tuple。
- **ValueError** - 如果 `in_channels` `out_channels` `kernel_size` `stride` 或者 `dilation` 小于1。 - **ValueError** - 如果 `in_channels` `out_channels` `kernel_size` `stride` 或者 `dilation` 小于1。
- **ValueError** - 如果 `padding` 小于0。 - **ValueError** - 如果 `padding` 小于0。
- **ValueError** - 如果 `pad_mode` 不是"same""valid"或"pad"。 - **ValueError** - 如果 `pad_mode` 不是"same""valid"或"pad"。
- **ValueError** - 如果 `padding` 是一个长度不等于4的tuple。 - **ValueError** - 如果 `padding` 是一个长度不等于4的tuple。
- **ValueError** - 如果 `pad_mode` 不等于"pad"且 `padding` 不等于(0,0,0,0)。 - **ValueError** - 如果 `pad_mode` 不等于"pad"且 `padding` 不等于(0,0,0,0)。

View File

@ -9,8 +9,7 @@ mindspore.ops.median
- **x** (Tensor) - median的输入任意维度的Tensor。数据类型支持int16、int32、int64、float32或float64。 - **x** (Tensor) - median的输入任意维度的Tensor。数据类型支持int16、int32、int64、float32或float64。
- **global_median** (bool) - 表示是否对x的全部元素取中值。默认值False。 - **global_median** (bool) - 表示是否对x的全部元素取中值。默认值False。
- **axis** (int) - 指定计算维度。默认值:(0), 取值范围为[-dims, dims - 1]`dims` 表示 `x` 的维度长度 - **axis** (int) - 指定计算维度。默认值:(0), 取值范围为[-dims, dims - 1]`dims` 表示 `x` 的维度长度
- **keep_dims** (bool) - 表示是否减少维度如果为True输出将与输入保持相同的维度如果为False输出将减少维度。 - **keep_dims** (bool) - 表示是否减少维度如果为True输出将与输入保持相同的维度如果为False输出将减少维度。默认值False。
默认值False。
返回: 返回:
- **y** (Tensor) - 返回指定维度上的中值,数据类型与 `x` 相同。 - **y** (Tensor) - 返回指定维度上的中值,数据类型与 `x` 相同。

View File

@ -2018,7 +2018,7 @@ class CrossEntropyLoss(LossBase):
where `C = number of classes`. Data type must be float16 or float32. where `C = number of classes`. Data type must be float16 or float32.
- **labels** (Tensor) - For class indices, tensor of shape :math:`()`, :math:`(N)` or - **labels** (Tensor) - For class indices, tensor of shape :math:`()`, :math:`(N)` or
:math:`(N, d_1, d_2, ..., d_K)` , data type must be int32. :math:`(N, d_1, d_2, ..., d_K)` , data type must be int32.
For probabilities, tensor of shape :math:`(C,)` :math:`(N, C)` or :math:`(N, C, d_1, d_2, ..., d_K)`, For probabilities, tensor of shape :math:`(C,)` :math:`(N, C)` or :math:`(N, C, d_1, d_2, ..., d_K)` ,
data type must be float16 or float32. data type must be float16 or float32.
Returns: Returns:

View File

@ -149,13 +149,13 @@ class Custom(ops.PrimitiveWithInfer):
.. note:: .. note::
The supported platforms are determined by the input `func_type`: The supported platforms are determined by the input `func_type`:
- "hybrid": supports ["Ascend", "GPU", "CPU"]. - "hybrid": supports ["Ascend", "GPU", "CPU"].
- "akg": supports ["Ascend", "GPU", "CPU"]. - "akg": supports ["Ascend", "GPU", "CPU"].
- "tbe": supports ["Ascend"]. - "tbe": supports ["Ascend"].
- "aot": supports ["GPU", "CPU"]. - "aot": supports ["GPU", "CPU"].
- "pyfunc": supports ["CPU"]. - "pyfunc": supports ["CPU"].
- "julia": supports ["CPU"]. - "julia": supports ["CPU"].
- "aicpu": supports ["Ascend"]. - "aicpu": supports ["Ascend"].
Args: Args:
func (Union[function, str]): func (Union[function, str]):