!41378 correct the errors in rst files in 1.8 0902

Merge pull request !41378 from 宦晓玲/code_docs_00902
This commit is contained in:
i-robot 2022-09-05 02:59:37 +00:00 committed by Gitee
commit e8c01544b8
No known key found for this signature in database
GPG Key ID: 173E9B9CA92EEF8F
16 changed files with 42 additions and 42 deletions

View File

@ -29,7 +29,7 @@ mindspore.amp.DynamicLossScaleManager
.. py:method:: get_update_cell()
返回用于更新梯度放大系数的 `Cell` 实例,:class:`mindspore.nn.TrainOneStepWithLossScaleCell` 会调用该实例。
返回用于更新梯度放大系数的 :class:`mindspore.nn.Cell` 实例,:class:`mindspore.nn.TrainOneStepWithLossScaleCell` 会调用该实例。
**返回:**
@ -41,4 +41,4 @@ mindspore.amp.DynamicLossScaleManager
**参数:**
**overflow** (bool) - 表示是否溢出。
- **overflow** (bool) - 表示是否溢出。

View File

@ -16,6 +16,14 @@ mindspore.amp.DynamicLossScaler
- **scale_factor** (int) - 放大/缩小倍数。
- **scale_window** (int) - 无溢出时的连续正常step的最大数量。
.. py:method:: adjust(grads_finite)
根据梯度是否为有效值(无溢出)对 `scale_value` 进行调整。
**参数:**
- **grads_finite** (Tensor) - bool类型的标量Tensor表示梯度是否为有效值无溢出
.. py:method:: scale(inputs)
根据 `scale_value` 放大inputs。
@ -31,11 +39,3 @@ mindspore.amp.DynamicLossScaler
**参数:**
- **inputs** (Union(Tensor, tuple(Tensor))) - 损失值或梯度。
.. py:method:: adjust(grads_finite)
根据梯度是否为有效值(无溢出)对 `scale_value` 进行调整。
**参数:**
- **grads_finite** (Tensor) - bool类型的标量Tensor表示梯度是否为有效值无溢出

View File

@ -28,7 +28,7 @@ mindspore.amp.FixedLossScaleManager
.. py:method:: get_update_cell()
返回用于更新 `loss_scale` 值的 `Cell` 实例, :class:`mindspore.nn.TrainOneStepWithLossScaleCell` 会调用该实例。该类使用固定的梯度放大系数,因此该实例不执行任何操作。
返回用于更新 `loss_scale` 值的 :class:`mindspore.nn.Cell` 实例, :class:`mindspore.nn.TrainOneStepWithLossScaleCell` 会调用该实例。该类使用固定的梯度放大系数,因此该实例不执行任何操作。
**返回:**

View File

@ -5,7 +5,7 @@ mindspore.amp.LossScaleManager
使用混合精度时用于管理损失缩放系数loss scale的抽象类。
派生类需要实现该类的所有方法。 `get_loss_scale` 用于获取当前的梯度放大系数。 `update_loss_scale` 用于更新梯度放大系数,该方法将在训练过程中被调用。 `get_update_cell` 用于获取更新梯度放大系数的 `Cell` 实例,该实例将在训练过程中被调用。当前多使用 `get_update_cell` 方式。
派生类需要实现该类的所有方法。 `get_loss_scale` 用于获取当前的梯度放大系数。 `update_loss_scale` 用于更新梯度放大系数,该方法将在训练过程中被调用。 `get_update_cell` 用于获取更新梯度放大系数的 :class:`mindspore.nn.Cell` 实例,该实例将在训练过程中被调用。当前多使用 `get_update_cell` 方式。
例如::class:`mindspore.amp.FixedLossScaleManager`:class:`mindspore.amp.DynamicLossScaleManager`

View File

@ -10,6 +10,14 @@ mindspore.amp.LossScaler
.. note::
- 这是一个实验性接口,后续可能删除或修改。
.. py:method:: adjust(grads_finite)
根据梯度是否为有效值(无溢出)对 `scale_value` 进行调整。
**参数:**
- **grads_finite** (Tensor) - bool类型的标量Tensor表示梯度是否为有效值无溢出
.. py:method:: scale(inputs)
对inputs进行scale`inputs \*= scale_value`
@ -26,11 +34,3 @@ mindspore.amp.LossScaler
- **inputs** (Union(Tensor, tuple(Tensor))) - 损失值或梯度。
.. py:method:: adjust(grads_finite)
根据梯度是否为有效值(无溢出)对 `scale_value` 进行调整。
**参数:**
- **grads_finite** (Tensor) - bool类型的标量Tensor表示梯度是否为有效值无溢出

View File

@ -3,7 +3,7 @@ mindspore.amp.StaticLossScaler
.. py:class:: mindspore.amp.StaticLossScaler(scale_value)
损失缩放系数不变的管理器
Static Loss scale类。用固定的常数来scales和unscale损失或梯度
.. note::
- 这是一个实验性接口,后续可能删除或修改。
@ -12,6 +12,14 @@ mindspore.amp.StaticLossScaler
- **scale_value** (Union(float, int)) - 缩放系数。
.. py:method:: adjust(grads_finite)
`scale_value` 值固定。
**参数:**
- **grads_finite** (Tensor) - bool类型的标量Tensor表示梯度是否为有效值无溢出
.. py:method:: scale(inputs)
对inputs进行scale`inputs \*= scale_value`
@ -26,12 +34,4 @@ mindspore.amp.StaticLossScaler
**参数:**
- **inputs** (Union(Tensor, tuple(Tensor))) - 损失值或梯度。
.. py:method:: adjust(grads_finite)
`scale_value` 值固定。
**参数:**
- **grads_finite** (Tensor) - bool类型的标量Tensor表示梯度是否为有效值无溢出
- **inputs** (Union(Tensor, tuple(Tensor))) - 损失值或梯度。

View File

@ -34,7 +34,7 @@ mindspore.nn.Adadelta
.. include:: mindspore.nn.optim_group_gc.rst
.. include:: mindspore.nn.optim_group_order.rst
- **learning_rate** (Union[float, Tensor, Iterable, LearningRateSchedule]) - 默认值1.0。
- **learning_rate** (Union[float, int, Tensor, Iterable, LearningRateSchedule]) - 默认值1.0。
.. include:: mindspore.nn.optim_arg_dynamic_lr.rst

View File

@ -14,7 +14,7 @@ mindspore.nn.Conv2dTranspose
**参数:**
- **in_channels** (int) - Conv2dTranspose层输入Tensor的空间维度。
- **out_channels** (dict) - Conv2dTranspose层输出Tensor的空间维度。
- **out_channels** (int) - Conv2dTranspose层输出Tensor的空间维度。
- **kernel_size** (Union[int, tuple[int]]) - 指定二维卷积核的高度和宽度。数据类型为整型或两个整型的tuple。一个整数表示卷积核的高度和宽度均为该值。两个整数的tuple分别表示卷积核的高度和宽度。
- **stride** (Union[int, tuple[int]]) - 二维卷积核的移动步长。数据类型为整型或两个整型的tuple。一个整数表示在高度和宽度方向的移动步长均为该值。两个整数的tuple分别表示在高度和宽度方向的移动步长。默认值1。
- **pad_mode** (str) - 指定填充模式。可选值为"same"、"valid"、"pad"。默认值:"same"。

View File

@ -3,7 +3,7 @@ mindspore.nn.DiceLoss
.. py:class:: mindspore.nn.DiceLoss(smooth=1e-5)
Dice系数是一个集合相似性loss,用于计算两个样本之间的相似性。当分割结果最好时Dice系数的值为1当分割结果最差时Dice系数的值为0。
Dice系数是一个集合相似性loss用于计算两个样本之间的相似性。当分割结果最好时Dice系数的值为1当分割结果最差时Dice系数的值为0。
Dice系数表示两个对象之间的面积与总面积的比率。
函数如下:
@ -11,7 +11,7 @@ mindspore.nn.DiceLoss
.. math::
dice = 1 - \frac{2 * |pred \bigcap true|}{|pred| + |true| + smooth}
:math:`pred` 表示 `logits` :math:`true` 表示 `labels`
:math:`pred` 表示 `logits` :math:`true` 表示 `labels`
**参数:**

View File

@ -7,7 +7,7 @@ mindspore.nn.DynamicLossScaleUpdateCell
使用混合精度功能进行训练时,初始损失缩放系数值为 `loss_scale_value`。在每个训练步骤中,当出现溢出时,通过计算公式 `loss_scale`/`scale_factor` 减小损失缩放系数。如果连续 `scale_window`step未溢出则将通过 `loss_scale` * `scale_factor` 增大损失缩放系数。
该类是 :class:`mindspore.DynamicLossScaleManager` 的 `get_update_cell` 方法的返回值。训练过程中,类 :class:`mindspore.nn.TrainOneStepWithLossScaleCell` 会调用该Cell来更新损失缩放系数。
该类是 :class:`mindspore.amp.DynamicLossScaleManager` 的 `get_update_cell` 方法的返回值。训练过程中,类 :class:`mindspore.nn.TrainOneStepWithLossScaleCell` 会调用该Cell来更新损失缩放系数。
**参数:**

View File

@ -5,7 +5,7 @@ mindspore.nn.FixedLossScaleUpdateCell
固定损失缩放系数的神经元。
该类是 :class:`mindspore.FixedLossScaleManager` 的 `get_update_cell` 方法的返回值。训练过程中,类 :class:`mindspore.nn.TrainOneStepWithLossScaleCell` 会调用该Cell。
该类是 :class:`mindspore.amp.FixedLossScaleManager` 的 `get_update_cell` 方法的返回值。训练过程中,类 :class:`mindspore.nn.TrainOneStepWithLossScaleCell` 会调用该Cell。
**参数:**

View File

@ -27,7 +27,7 @@ mindspore.nn.GELU
**输入:**
- **x** Tensor - 用于计算GELU的Tensor。数据类型为float16或float32。shape是 :math:`(N,*)` :math:`*` 表示任意的附加维度数。
- **x** (Tensor) - 用于计算GELU的Tensor。数据类型为float16或float32。shape是 :math:`(N,*)` :math:`*` 表示任意的附加维度数。
**输出:**

View File

@ -56,7 +56,7 @@ mindspore.nn.RMSProp
.. include:: mindspore.nn.optim_group_gc.rst
.. include:: mindspore.nn.optim_group_order.rst
- **learning_rate** (Union[float, Tensor, Iterable, LearningRateSchedule]) - 默认值0.1。
- **learning_rate** (Union[float, int, Tensor, Iterable, LearningRateSchedule]) - 默认值0.1。
.. include:: mindspore.nn.optim_arg_dynamic_lr.rst

View File

@ -11,7 +11,7 @@ mindspore.nn.SampledSoftmaxLoss
- **num_sampled** (int) - 抽样的类别数。
- **num_classes** (int) - 类别总数。
- **num_true** (int)每个训练样本的类别数。默认值1。
- **num_true** (int) - 每个训练样本的类别数。默认值1。
- **sampled_values** (Union[list, tuple]) - 抽样候选值。由 `*CandidateSampler` 函数返回的(`sampled_candidates`, `true_expected_count` , `sampled_expected_count`)的list或tuple。如果默认值为None则应用 `UniformCandidateSampler`
- **remove_accidental_hits** (bool) - 是否移除抽样中的目标类等于标签的情况。默认值True。
- **seed** (int) - 抽样的随机种子。默认值0。

View File

@ -7,13 +7,13 @@ mindspore.nn.SoftmaxCrossEntropyWithLogits
使用交叉熵损失函数计算出输入概率使用softmax函数计算和真实值之间的误差。
对于每个实例 :math:`x_i` i的范围为0到N-1则可得损失为
对于每个实例 :math:`x_i` i的范围为0到N-1则可得损失为
.. math::
\ell(x_i, c) = - \log\left(\frac{\exp(x_i[c])}{\sum_j \exp(x_i[j])}\right)
= -x_i[c] + \log\left(\sum_j \exp(x_i[j])\right)
其中 :math:`x_i` 是一维的Tensor :math:`c` 为one-hot中等于1的位置。
其中 :math:`x_i` 是一维的Tensor :math:`c` 为one-hot中等于1的位置。
.. note::
虽然目标值是互斥的,即目标值中只有一个为正,但预测的概率不为互斥。只要求输入的预测概率分布有效。

View File

@ -66,7 +66,7 @@ mindspore.nn.TrainOneStepWithLossScaleCell
**参数:**
- **sens** Tensor - 新的损失缩放系数其shape和类型需要与原始 `scale_sense` 相同。
- **sens** (Tensor) - 新的损失缩放系数其shape和类型需要与原始 `scale_sense` 相同。
.. py:method:: start_overflow_check(pre_cond, compute_input)