modify format

This commit is contained in:
huodagu 2023-02-23 10:04:43 +08:00
parent b9c82e5d10
commit 92e3ba5ffe
19 changed files with 62 additions and 62 deletions

View File

@ -1,4 +1,4 @@
mindspore.dataset.config.set_prefetch_size mindspore.dataset.config.get_prefetch_size
=========================================== ===========================================
.. py:function:: mindspore.dataset.config.get_prefetch_size() .. py:function:: mindspore.dataset.config.get_prefetch_size()

View File

@ -226,7 +226,7 @@ Boost能够自动加速网络如减少BN/梯度冻结/累积梯度等。
- **sens** (numbers.Number) - 作为反向传播输入要填充的缩放数默认值为1.0。 - **sens** (numbers.Number) - 作为反向传播输入要填充的缩放数默认值为1.0。
输入: 输入:
- **(*inputs)** (Tuple(Tensor)) - 网络的所有输入组成的元组。 - **\*inputs** (Tuple(Tensor)) - 网络的所有输入组成的元组。
输出: 输出:
Tuple包含三个Tensor分别为损失函数值、溢出状态和当前损失缩放系数。 Tuple包含三个Tensor分别为损失函数值、溢出状态和当前损失缩放系数。
@ -299,7 +299,7 @@ Boost能够自动加速网络如减少BN/梯度冻结/累积梯度等。
- **scale_sense** (Union[Tensor, Cell]) - 如果此值为Cell类型`BoostTrainOneStepWithLossScaleCell` 会调用它来更新损失缩放系数。如果此值为Tensor类型可调用 `set_sense_scale` 来更新损失缩放系数shape为 :math:`()`:math:`(1,)` - **scale_sense** (Union[Tensor, Cell]) - 如果此值为Cell类型`BoostTrainOneStepWithLossScaleCell` 会调用它来更新损失缩放系数。如果此值为Tensor类型可调用 `set_sense_scale` 来更新损失缩放系数shape为 :math:`()`:math:`(1,)`
输入: 输入:
- **(*inputs)** (Tuple(Tensor)) - 网络的所有输入组成的元组。 - **\*inputs** (Tuple(Tensor)) - 网络的所有输入组成的元组。
输出: 输出:
Tuple包含三个Tensor分别为损失函数值、溢出状态和当前损失缩放系数。 Tuple包含三个Tensor分别为损失函数值、溢出状态和当前损失缩放系数。
@ -460,7 +460,7 @@ Boost能够自动加速网络如减少BN/梯度冻结/累积梯度等。
- **old_grad** (Tuple(Tensor)) - 网络权重提取组成的元组。 - **old_grad** (Tuple(Tensor)) - 网络权重提取组成的元组。
- **weight** (Tuple(Tensor)) - 网络权重组成的元组。 - **weight** (Tuple(Tensor)) - 网络权重组成的元组。
- **weight_clone** (Tuple(Tensor)) - 网络权重的副本。 - **weight_clone** (Tuple(Tensor)) - 网络权重的副本。
- **(\*inputs)** (Tuple(Tensor)) - 网络的所有输入组成的元组。 - **\*inputs** (Tuple(Tensor)) - 网络的所有输入组成的元组。
输出: 输出:
- **loss** (Tensor) - 网络loss标量Tensor。 - **loss** (Tensor) - 网络loss标量Tensor。

View File

@ -1,7 +1,7 @@
mindspore.nn.AdaptiveMaxPool1d mindspore.nn.AdaptiveMaxPool1d
============================== ==============================
.. py:class:: mindspore.nn.AdaptiveMaxPool1d(output_size) .. py:class:: mindspore.nn.AdaptiveMaxPool1d(output_size, return_indices=False)
在一个输入Tensor上应用1D自适应最大池化运算可被视为组成一个1D输入平面。 在一个输入Tensor上应用1D自适应最大池化运算可被视为组成一个1D输入平面。

View File

@ -16,8 +16,8 @@ mindspore.nn.ForwardValueAndGrad
- **sens_param** (bool) - 是否将sens作为输入。如果 `sens_param` 为False则sens默认为'ones_like(outputs)'。默认值False。如果 `sens_param` 为True则需要指定sens的值。 - **sens_param** (bool) - 是否将sens作为输入。如果 `sens_param` 为False则sens默认为'ones_like(outputs)'。默认值False。如果 `sens_param` 为True则需要指定sens的值。
输入: 输入:
- **(\*inputs)** (Tuple(Tensor...)) - shape为 :math:`(N, \ldots)` 的输入tuple。 - **\*inputs** (Tuple(Tensor...)) - shape为 :math:`(N, \ldots)` 的输入tuple。
- **(sens)** - 反向传播梯度的缩放值。如果网络有单个输出则sens是tensor。如果网络有多个输出则sens是tuple(tensor)。 - **sens** - 反向传播梯度的缩放值。如果网络有单个输出则sens是tensor。如果网络有多个输出则sens是tuple(tensor)。
输出: 输出:
- **forward value** - 网络运行的正向结果。 - **forward value** - 网络运行的正向结果。

View File

@ -15,7 +15,7 @@ mindspore.nn.MultiheadAttention
参数: 参数:
- **embed_dim** (int) - 模型的总维数。 - **embed_dim** (int) - 模型的总维数。
- **num_heads** (int) - 并行注意力头的数量。``num_heads`` 需要能够被 ``embed_dim`` 整除(每个头的维数为 ``embed_dim // num_heads``)。 - **num_heads** (int) - 并行注意力头的数量。``num_heads`` 需要能够被 ``embed_dim`` 整除(每个头的维数为 ``embed_dim // num_heads``)。
- **dropout** (float) - 应用到输入 ``attn_output_weights``上的随机丢弃比例. 默认: ``0.0`` (不丢弃)。 - **dropout** (float) - 应用到输入 ``attn_output_weights`` 上的随机丢弃比例. 默认: ``0.0`` (不丢弃)。
- **has_bias** (bool) - 是否给输入、输出投射层添加偏置。默认: ``True`` - **has_bias** (bool) - 是否给输入、输出投射层添加偏置。默认: ``True``
- **add_bias_kv** (bool) - 是否给key、value序列的0维添加偏置。默认 ``False`` - **add_bias_kv** (bool) - 是否给key、value序列的0维添加偏置。默认 ``False``
- **add_zero_attn** (bool) - 是否给key、value序列的1维添加0。默认 ``False`` - **add_zero_attn** (bool) - 是否给key、value序列的1维添加0。默认 ``False``
@ -33,10 +33,10 @@ mindspore.nn.MultiheadAttention
``batch_first=True``Shape为 :math:`(N, S, E_v)`。其中, :math:`S` 为源序列的长度, :math:`N` 为batch size:math:`E_v` 为Key矩阵的维数 ``vdim``。详情请见:"Attention Is All You Need"。 ``batch_first=True``Shape为 :math:`(N, S, E_v)`。其中, :math:`S` 为源序列的长度, :math:`N` 为batch size:math:`E_v` 为Key矩阵的维数 ``vdim``。详情请见:"Attention Is All You Need"。
- **key_padding_mask** (Tensor) - 如果指定此值则表示Shape为 :math:`(N, S)`的掩码将被用于 ``key``。当输入非Batch数据时Shape为 :math:`(S)` - **key_padding_mask** (Tensor) - 如果指定此值则表示Shape为 :math:`(N, S)`的掩码将被用于 ``key``。当输入非Batch数据时Shape为 :math:`(S)`
如果输入Tensor为Bool类型``key`` 中对应为 ``True`` 的位置将在Attention计算时被忽略。如果输入Tensor为Float类型则将直接与 ``key`` 相加。默认:``None`` 如果输入Tensor为Bool类型``key`` 中对应为 ``True`` 的位置将在Attention计算时被忽略。如果输入Tensor为Float类型则将直接与 ``key`` 相加。默认:``None``
- **need_weights** (bool) - 是否需要返回 ``attn_output_weights``,如果为 ``True``,则输出包含``attn_output_weights``。默认:``True`` - **need_weights** (bool) - 是否需要返回 ``attn_output_weights``,如果为 ``True``,则输出包含 ``attn_output_weights``。默认:``True``
- **attn_mask** (Tensor) - 如果指定此值则表示Shape为 :math:`(L, S)`:math:`(N\cdot\text{num\_heads}, L, S)` 的掩码将被用于Attention计算。其中 :math:`N` 为batch size - **attn_mask** (Tensor) - 如果指定此值则表示Shape为 :math:`(L, S)`:math:`(N\cdot\text{num\_heads}, L, S)` 的掩码将被用于Attention计算。其中 :math:`N` 为batch size
:math:`L` 为目标序列长度,:math:`S` 为源序列长度。如果输入为2维矩阵则将自动沿batch维广播至3维矩阵。若为3维矩阵则允许沿batch维使用不同的掩码。如果输入Tensor为Bool类型则值为 ``True`` 对应位置允许被注意力计算。如果输入Tensor为Float类型则将直接与注意力权重相加。默认``None`` :math:`L` 为目标序列长度,:math:`S` 为源序列长度。如果输入为2维矩阵则将自动沿batch维广播至3维矩阵。若为3维矩阵则允许沿batch维使用不同的掩码。如果输入Tensor为Bool类型则值为 ``True`` 对应位置允许被注意力计算。如果输入Tensor为Float类型则将直接与注意力权重相加。默认``None``
- **average_attn_weights** (bool) - 如果为 ``True`` 则返回值 ``attn_weights`` 为注意力头的平均值。如果为 ``False``,则``attn_weights``分别返回每个注意力头的值。 - **average_attn_weights** (bool) - 如果为 ``True`` 则返回值 ``attn_weights`` 为注意力头的平均值。如果为 ``False``,则 ``attn_weights`` 分别返回每个注意力头的值。
本参数仅在 ``need_weights=True`` 时生效。默认: ``True`` 本参数仅在 ``need_weights=True`` 时生效。默认: ``True``
输出: 输出:

View File

@ -14,7 +14,7 @@ mindspore.nn.TrainOneStepCell
- **sens** (numbers.Number) - 反向传播的输入缩放系数。默认值为1.0。 - **sens** (numbers.Number) - 反向传播的输入缩放系数。默认值为1.0。
输入: 输入:
- **(\*inputs)** (Tuple(Tensor)) - shape为 :math:`(N, \ldots)` 的Tensor组成的元组。 - **\*inputs** (Tuple(Tensor)) - shape为 :math:`(N, \ldots)` 的Tensor组成的元组。
输出: 输出:
Tensor损失函数值其shape通常为 :math:`()` Tensor损失函数值其shape通常为 :math:`()`

View File

@ -14,7 +14,7 @@ mindspore.nn.TrainOneStepWithLossScaleCell
- **scale_sense** (Union[Tensor, Cell]) - 如果此值为Cell类型`TrainOneStepWithLossScaleCell` 会调用它来更新损失缩放系数。如果此值为Tensor类型可调用 `set_sense_scale` 来更新损失缩放系数shape为 :math:`()`:math:`(1,)` - **scale_sense** (Union[Tensor, Cell]) - 如果此值为Cell类型`TrainOneStepWithLossScaleCell` 会调用它来更新损失缩放系数。如果此值为Tensor类型可调用 `set_sense_scale` 来更新损失缩放系数shape为 :math:`()`:math:`(1,)`
输入: 输入:
- **(*inputs)** (Tuple(Tensor)) - shape为 :math:`(N, \ldots)` 的Tensor组成的元组。 - **\*inputs** (Tuple(Tensor)) - shape为 :math:`(N, \ldots)` 的Tensor组成的元组。
输出: 输出:
Tuple包含三个Tensor分别为损失函数值、溢出状态和当前损失缩放系数。 Tuple包含三个Tensor分别为损失函数值、溢出状态和当前损失缩放系数。

View File

@ -1,7 +1,7 @@
mindspore.ops.adaptive_avg_pool2d mindspore.ops.adaptive_avg_pool2d
================================= =================================
.. py:function:: mindspore.ops.adaptive_avg_pool2d(input_x, output_size) .. py:function:: mindspore.ops.adaptive_avg_pool2d(input, output_size)
对输入Tensor提供二维的自适应平均池化操作。也就是说对于输入任何尺寸指定输出的尺寸都为H * W。但是输入和输出特征的数目不会变化。 对输入Tensor提供二维的自适应平均池化操作。也就是说对于输入任何尺寸指定输出的尺寸都为H * W。但是输入和输出特征的数目不会变化。
@ -20,13 +20,13 @@ mindspore.ops.adaptive_avg_pool2d
\end{align} \end{align}
参数: 参数:
- **input_x** (Tensor) - adaptive_avg_pool2d的输入为三维或四维的Tensor数据类型为float16、float32或者float64。 - **input** (Tensor) - adaptive_avg_pool2d的输入为三维或四维的Tensor数据类型为float16、float32或者float64。
- **output_size** (Union[int, tuple]) - 输出特征图的尺寸为H * W。可以是int类型的H和W组成的tuple或代表相同H和W的一个int值或None如果是None则意味着输出大小与输入相同。 - **output_size** (Union[int, tuple]) - 输出特征图的尺寸为H * W。可以是int类型的H和W组成的tuple或代表相同H和W的一个int值或None如果是None则意味着输出大小与输入相同。
返回: 返回:
Tensor数据类型与 `input_x` 相同。 Tensor数据类型与 `input` 相同。
输出的shape为 `input_x_shape[:len(input_x_shape) - len(out_shape)] + out_shape` 输出的shape为 `input_shape[:len(input_shape) - len(out_shape)] + out_shape`
.. math:: .. math::
out\_shape = \begin{cases} out\_shape = \begin{cases}
@ -39,6 +39,6 @@ mindspore.ops.adaptive_avg_pool2d
异常: 异常:
- **ValueError** - 如果 `output_size` 是tuple并且 `output_size` 的长度不是2。 - **ValueError** - 如果 `output_size` 是tuple并且 `output_size` 的长度不是2。
- **ValueError** - 如果 `input_x` 的维度小于或等于 `output_size` 的维度。 - **ValueError** - 如果 `input` 的维度小于或等于 `output_size` 的维度。
- **TypeError** - 如果 `input_x` 不是Tensor。 - **TypeError** - 如果 `input` 不是Tensor。
- **TypeError** - 如果 `input_x` 的数据类型不是float16、float32或者float64。 - **TypeError** - 如果 `input` 的数据类型不是float16、float32或者float64。

View File

@ -1,7 +1,7 @@
mindspore.ops.adaptive_max_pool1d mindspore.ops.adaptive_max_pool1d
================================= =================================
.. py:function:: mindspore.ops.adaptive_max_pool1d(input_x, output_size, return_indices=False) .. py:function:: mindspore.ops.adaptive_max_pool1d(input, output_size, return_indices=False)
对可以看作是由一系列1D平面组成的输入Tensor应用一维自适应最大池化操作。 对可以看作是由一系列1D平面组成的输入Tensor应用一维自适应最大池化操作。
@ -12,17 +12,17 @@ mindspore.ops.adaptive_max_pool1d
Ascend平台不支持 `return_indices` 参数。 Ascend平台不支持 `return_indices` 参数。
参数: 参数:
- **input_x** (Tensor) - 输入shape为 :math:`(N_{in}, C_{in}, L_{in})`:math:`(C_{in}, L_{in})` 数据类型为float16、float32。 - **input** (Tensor) - 输入shape为 :math:`(N_{in}, C_{in}, L_{in})`:math:`(C_{in}, L_{in})` 数据类型为float16、float32。
- **output_size** (int) - 大小为 :math:`L_{out}` - **output_size** (int) - 大小为 :math:`L_{out}`
- **return_indices** (bool) - 如果为True输出最大值的索引默认值为False。 - **return_indices** (bool) - 如果为True输出最大值的索引默认值为False。
返回: 返回:
Tensor数据类型与 `input_x` 相同。 Tensor数据类型与 `input` 相同。
输出的shape为 :math:`(N_{in}, C_{in}, L_{out})`:math:`(C_{in}, L_{out})` 输出的shape为 :math:`(N_{in}, C_{in}, L_{out})`:math:`(C_{in}, L_{out})`
异常: 异常:
- **TypeError** - 如果 `input_x` 不是Tensor。 - **TypeError** - 如果 `input` 不是Tensor。
- **TypeError** - 如果 `output_size` 不是int类型。 - **TypeError** - 如果 `output_size` 不是int类型。
- **TypeError** - 如果 `return_indices` 不是bool类型。 - **TypeError** - 如果 `return_indices` 不是bool类型。
- **ValueError** - 如果 `output_size` 小于1。 - **ValueError** - 如果 `output_size` 小于1。
- **ValueError** - 如果 `input_x` 的维度不等于2或3。 - **ValueError** - 如果 `input` 的维度不等于2或3。

View File

@ -1,7 +1,7 @@
mindspore.ops.adaptive_max_pool2d mindspore.ops.adaptive_max_pool2d
================================= =================================
.. py:function:: mindspore.ops.adaptive_max_pool2d(input_x, output_size, return_indices=False) .. py:function:: mindspore.ops.adaptive_max_pool2d(input, output_size, return_indices=False)
对输入Tensor提供二维自适应最大池化操作。即对于输入任何尺寸指定输出的尺寸都为H * W。但是输入和输出特征的数目不会变化。 对输入Tensor提供二维自适应最大池化操作。即对于输入任何尺寸指定输出的尺寸都为H * W。但是输入和输出特征的数目不会变化。
@ -18,22 +18,22 @@ mindspore.ops.adaptive_max_pool2d
\end{align} \end{align}
.. note:: .. note::
Ascend平台input_x参数仅支持float16类型。 Ascend平台input参数仅支持float16类型。
参数: 参数:
- **input_x** (Tensor) - adaptive_max_pool2d的输入为三维或四维的Tensor数据类型为float16、float32或者float64。 - **input** (Tensor) - adaptive_max_pool2d的输入为三维或四维的Tensor数据类型为float16、float32或者float64。
- **output_size** (Union[int, tuple]) - 输出特征图的尺寸为H * W。可以是int类型的H和W组成的tuple或代表相同H和W的一个int值或None如果是None则意味着输出大小与输入相同。 - **output_size** (Union[int, tuple]) - 输出特征图的尺寸为H * W。可以是int类型的H和W组成的tuple或代表相同H和W的一个int值或None如果是None则意味着输出大小与输入相同。
- **return_indices** (bool) - 如果为True输出最大值的索引默认值为False。 - **return_indices** (bool) - 如果为True输出最大值的索引默认值为False。
返回: 返回:
Tensor数据类型与 `input_x` 相同。 Tensor数据类型与 `input` 相同。
输出的shape为 `input_x_shape[:len(input_x_shape) - len(out_shape)] + out_shape` 输出的shape为 `input_shape[:len(input_shape) - len(out_shape)] + out_shape`
异常: 异常:
- **TypeError** - `input_x` 不是Tensor。 - **TypeError** - `input` 不是Tensor。
- **TypeError** - `input_x` 中的数据不是float16, float32, float64. - **TypeError** - `input` 中的数据不是float16, float32, float64.
- **TypeError** - `output_size` 不是int或者tuple。 - **TypeError** - `output_size` 不是int或者tuple。
- **TypeError** - `return_indices` 不是bool。 - **TypeError** - `return_indices` 不是bool。
- **ValueError** - `output_size` 是tuple但大小不是2。 - **ValueError** - `output_size` 是tuple但大小不是2。
- **ValueError** - `input_x` 的维度不是CHW或者NCHW。 - **ValueError** - `input` 的维度不是CHW或者NCHW。

View File

@ -1,7 +1,7 @@
mindspore.ops.count_nonzero mindspore.ops.count_nonzero
============================ ============================
.. py:function:: mindspore.ops.count_nonzero(x, axis=(), keep_dims=False, dtype=mstype.int32) .. py:function:: mindspore.ops.count_nonzero(x, dims=None)
计算输入Tensor指定轴上的非零元素的数量。如果没有指定维度则计算Tensor中所有非零元素的数量。 计算输入Tensor指定轴上的非零元素的数量。如果没有指定维度则计算Tensor中所有非零元素的数量。

View File

@ -11,7 +11,7 @@ mindspore.ops.polygamma
其中\psi(x)为digamma函数。 其中\psi(x)为digamma函数。
参数: 参数:
- **a** (tuple) - 多伽马函数求导的阶数支持的数据类型为int32和int64 `a` 的shape为 :math:`()` - **a** (Tensor) - 多伽马函数求导的阶数支持的数据类型为int32和int64 `a` 的shape为 :math:`()`
- **x** (Tensor) - 用于计算多伽马函数的Tensor。 - **x** (Tensor) - 用于计算多伽马函数的Tensor。
返回: 返回:

View File

@ -14,7 +14,7 @@ mindspore.ops.triu_indices
- **row** (int) - 2-D 矩阵的行数。 - **row** (int) - 2-D 矩阵的行数。
- **col** (int) - 2-D 矩阵的列数。 - **col** (int) - 2-D 矩阵的列数。
- **offset** (int可选) - 对角线偏移量。默认值0。 - **offset** (int可选) - 对角线偏移量。默认值0。
- **dtype** (:class:`mindspore.dtype` ,可选) - 指定输出Tensor数据类型支持的数据类型为 `mstype.int32``mstype.int64` ,默认值: `mstype.int64` - **dtype** (:class:`mindspore.dtype`,可选) - 指定输出Tensor数据类型支持的数据类型为 `mstype.int32``mstype.int64` ,默认值: `mstype.int64`
返回: 返回:
- **y** (Tensor) - 矩阵的下三角形部分的索引。数据类型由 `dtype` 指定shape为 :math:`(2, tril\_size)` ,其中, `tril_size` 为上三角矩阵的元素总数。 - **y** (Tensor) - 矩阵的下三角形部分的索引。数据类型由 `dtype` 指定shape为 :math:`(2, tril\_size)` ,其中, `tril_size` 为上三角矩阵的元素总数。

View File

@ -115,7 +115,7 @@ class BoostTrainOneStepCell(TrainOneStepCell):
sens (numbers.Number): The scaling number to be filled as the input of backpropagation. Default value is 1.0. sens (numbers.Number): The scaling number to be filled as the input of backpropagation. Default value is 1.0.
Inputs: Inputs:
- **(\*inputs)** (Tuple(Tensor)) - Tuple of input tensors with shape :math:`(N, \ldots)`. - **\*inputs** (Tuple(Tensor)) - Tuple of input tensors with shape :math:`(N, \ldots)`.
Outputs: Outputs:
Tensor, a tensor means the loss value, the shape of which is usually :math:`()`. Tensor, a tensor means the loss value, the shape of which is usually :math:`()`.
@ -392,7 +392,7 @@ class BoostTrainOneStepWithLossScaleCell(BoostTrainOneStepCell):
is Tensor type, Tensor with shape :math:`()` or :math:`(1,)`. is Tensor type, Tensor with shape :math:`()` or :math:`(1,)`.
Inputs: Inputs:
- **(*inputs)** (Tuple(Tensor)) - Tuple of input tensors with shape :math:`(N, \ldots)`. - **\*inputs** (Tuple(Tensor)) - Tuple of input tensors with shape :math:`(N, \ldots)`.
Outputs: Outputs:
Tuple of 3 Tensor, the loss, overflow flag and current loss scaling value. Tuple of 3 Tensor, the loss, overflow flag and current loss scaling value.

View File

@ -138,7 +138,7 @@ class DimReduce(Cell):
- **old_grad** (Tuple(Tensor)) - Tuple of gradient tensors. - **old_grad** (Tuple(Tensor)) - Tuple of gradient tensors.
- **weight** (Tuple(Tensor)) - Tuple of parameters. - **weight** (Tuple(Tensor)) - Tuple of parameters.
- **weight_clone** (Tuple(Tensor)) - clone of weight - **weight_clone** (Tuple(Tensor)) - clone of weight
- **(\*inputs)** (Tuple(Tensor)) - Tuple of input tensors with shape :math:`(N, \ldots)`. - **\*inputs** (Tuple(Tensor)) - Tuple of input tensors with shape :math:`(N, \ldots)`.
Outputs: Outputs:
- **loss** (Tensor) - Tensor with shape :math:`()`. - **loss** (Tensor) - Tensor with shape :math:`()`.

View File

@ -1022,24 +1022,24 @@ def set_context(**kwargs):
value of training network is must_keep_origin_dtype, and the default value of inference network value of training network is must_keep_origin_dtype, and the default value of inference network
is force_fp16. The value range is as follows: is force_fp16. The value range is as follows:
- force_fp16: When the operator supports both float16 and float32, select float16 directly. - force_fp16: When the operator supports both float16 and float32, select float16 directly.
- allow_fp32_to_fp16: When the operator does not support the float32 data type, directly reduce - allow_fp32_to_fp16: When the operator does not support the float32 data type, directly reduce
the precision of float16. the precision of float16.
- allow_mix_precision: Automatic mixing precision, facing the whole network operator, according - allow_mix_precision: Automatic mixing precision, facing the whole network operator, according
to the built-in optimization strategy, automatically reduces the precision of some operators to the built-in optimization strategy, automatically reduces the precision of some operators
to float16 or bfloat16. to float16 or bfloat16.
- must_keep_origin_dtype: Keep the accuracy of the original drawing. - must_keep_origin_dtype: Keep the accuracy of the original drawing.
- force_fp32: When the operator supports both float16 and float32, select float32 directly. - force_fp32: When the operator supports both float16 and float32, select float32 directly.
- force_lowerprecision: When the operator supports both float16 or bfloat16 and float32, select - force_lowerprecision: When the operator supports both float16 or bfloat16 and float32, select
float16 or bfloat16 directly. float16 or bfloat16 directly.
- allow_fp32_to_bf16: When the operator does not support the float32 data type, directly reduce - allow_fp32_to_bf16: When the operator does not support the float32 data type, directly reduce
the precision of bfloat16. the precision of bfloat16.
- allow_fp32_to_lowprecision: When the operator does not support the float32 data type, directly - allow_fp32_to_lowprecision: When the operator does not support the float32 data type, directly
reduce the precision of float16 or bfloat16. reduce the precision of float16 or bfloat16.
- allow_mix_precision_fp16: Automatic mixing precision, facing the whole network operator, automatically - allow_mix_precision_fp16: Automatic mixing precision, facing the whole network operator, automatically
reduces the precision of some operators to float16 according to the built-in optimization strategy. reduces the precision of some operators to float16 according to the built-in optimization strategy.
- allow_mix_precision_bf16: Automatic mixing precision, facing the whole network operator, according to - allow_mix_precision_bf16: Automatic mixing precision, facing the whole network operator, according to
the built-in optimization strategy, automatically reduces the precision of some operators to bfloat16. the built-in optimization strategy, automatically reduces the precision of some operators to bfloat16.
- jit_compile (bool): Whether to select online compilation. Default: True. - jit_compile (bool): Whether to select online compilation. Default: True.

View File

@ -146,7 +146,7 @@ class WithGradCell(Cell):
output value. Default: None. output value. Default: None.
Inputs: Inputs:
- **(\*inputs)** (Tuple(Tensor)) - Tuple of input tensors with shape :math:`(N, \ldots)`. - **\*inputs** (Tuple(Tensor)) - Tuple of input tensors with shape :math:`(N, \ldots)`.
Outputs: Outputs:
list, a list of Tensors with identical shapes as trainable weights. list, a list of Tensors with identical shapes as trainable weights.
@ -217,8 +217,8 @@ class ForwardValueAndGrad(Cell):
the input parameter. the input parameter.
Inputs: Inputs:
- **(\*inputs)** (Tuple(Tensor...)) - Tuple of inputs with shape :math:`(N, \ldots)`. - **\*inputs** (Tuple(Tensor...)) - Tuple of inputs with shape :math:`(N, \ldots)`.
- **(sens)** - A sensitivity (gradient with respect to output) as the input of backpropagation. - **sens** - A sensitivity (gradient with respect to output) as the input of backpropagation.
If network has single output, the sens is a tensor. If network has single output, the sens is a tensor.
If network has multiple outputs, the sens is the tuple(tensor). If network has multiple outputs, the sens is the tuple(tensor).
@ -312,7 +312,7 @@ class TrainOneStepCell(Cell):
sens (numbers.Number): The scaling number to be filled as the input of backpropagation. Default value is 1.0. sens (numbers.Number): The scaling number to be filled as the input of backpropagation. Default value is 1.0.
Inputs: Inputs:
- **(\*inputs)** (Tuple(Tensor)) - Tuple of input tensors with shape :math:`(N, \ldots)`. - **\*inputs** (Tuple(Tensor)) - Tuple of input tensors with shape :math:`(N, \ldots)`.
Outputs: Outputs:
Tensor, a tensor means the loss value, the shape of which is usually :math:`()`. Tensor, a tensor means the loss value, the shape of which is usually :math:`()`.

View File

@ -244,7 +244,7 @@ class TrainOneStepWithLossScaleCell(TrainOneStepCell):
the shape should be :math:`()` or :math:`(1,)`. the shape should be :math:`()` or :math:`(1,)`.
Inputs: Inputs:
- **(*inputs)** (Tuple(Tensor)) - Tuple of input tensors with shape :math:`(N, \ldots)`. - **\*inputs** (Tuple(Tensor)) - Tuple of input tensors with shape :math:`(N, \ldots)`.
Outputs: Outputs:
Tuple of 3 Tensor, the loss, overflow flag and current loss scale value. Tuple of 3 Tensor, the loss, overflow flag and current loss scale value.

View File

@ -76,7 +76,7 @@ def adaptive_avg_pool2d(input, output_size):
Args: Args:
input (Tensor): The input of adaptive_avg_pool2d, which is a 3D or 4D tensor, input (Tensor): The input of adaptive_avg_pool2d, which is a 3D or 4D tensor,
with float16, float32 or float64 data type. with float16, float32 or float64 data type.
output_size (Union[int, tuple]): The target output size is H x W. output_size (Union[int, tuple]): The target output size is H x W.
`ouput_size` can be a tuple consisted of int type H and W, or a single H for H x H, or None. `ouput_size` can be a tuple consisted of int type H and W, or a single H for H x H, or None.
If it is None, it means the output size is the same as the input size. If it is None, it means the output size is the same as the input size.