forked from mindspore-Ecosystem/mindspore
!41378 correct the errors in rst files in 1.8 0902
Merge pull request !41378 from 宦晓玲/code_docs_00902
This commit is contained in:
commit
e8c01544b8
|
@ -29,7 +29,7 @@ mindspore.amp.DynamicLossScaleManager
|
|||
|
||||
.. py:method:: get_update_cell()
|
||||
|
||||
返回用于更新梯度放大系数的 `Cell` 实例,:class:`mindspore.nn.TrainOneStepWithLossScaleCell` 会调用该实例。
|
||||
返回用于更新梯度放大系数的 :class:`mindspore.nn.Cell` 实例,:class:`mindspore.nn.TrainOneStepWithLossScaleCell` 会调用该实例。
|
||||
|
||||
**返回:**
|
||||
|
||||
|
@ -41,4 +41,4 @@ mindspore.amp.DynamicLossScaleManager
|
|||
|
||||
**参数:**
|
||||
|
||||
**overflow** (bool) - 表示是否溢出。
|
||||
- **overflow** (bool) - 表示是否溢出。
|
|
@ -16,6 +16,14 @@ mindspore.amp.DynamicLossScaler
|
|||
- **scale_factor** (int) - 放大/缩小倍数。
|
||||
- **scale_window** (int) - 无溢出时的连续正常step的最大数量。
|
||||
|
||||
.. py:method:: adjust(grads_finite)
|
||||
|
||||
根据梯度是否为有效值(无溢出)对 `scale_value` 进行调整。
|
||||
|
||||
**参数:**
|
||||
|
||||
- **grads_finite** (Tensor) - bool类型的标量Tensor,表示梯度是否为有效值(无溢出)。
|
||||
|
||||
.. py:method:: scale(inputs)
|
||||
|
||||
根据 `scale_value` 放大inputs。
|
||||
|
@ -31,11 +39,3 @@ mindspore.amp.DynamicLossScaler
|
|||
**参数:**
|
||||
|
||||
- **inputs** (Union(Tensor, tuple(Tensor))) - 损失值或梯度。
|
||||
|
||||
.. py:method:: adjust(grads_finite)
|
||||
|
||||
根据梯度是否为有效值(无溢出)对 `scale_value` 进行调整。
|
||||
|
||||
**参数:**
|
||||
|
||||
- **grads_finite** (Tensor) - bool类型的标量Tensor,表示梯度是否为有效值(无溢出)。
|
|
@ -28,7 +28,7 @@ mindspore.amp.FixedLossScaleManager
|
|||
|
||||
.. py:method:: get_update_cell()
|
||||
|
||||
返回用于更新 `loss_scale` 值的 `Cell` 实例, :class:`mindspore.nn.TrainOneStepWithLossScaleCell` 会调用该实例。该类使用固定的梯度放大系数,因此该实例不执行任何操作。
|
||||
返回用于更新 `loss_scale` 值的 :class:`mindspore.nn.Cell` 实例, :class:`mindspore.nn.TrainOneStepWithLossScaleCell` 会调用该实例。该类使用固定的梯度放大系数,因此该实例不执行任何操作。
|
||||
|
||||
**返回:**
|
||||
|
||||
|
|
|
@ -5,7 +5,7 @@ mindspore.amp.LossScaleManager
|
|||
|
||||
使用混合精度时,用于管理损失缩放系数(loss scale)的抽象类。
|
||||
|
||||
派生类需要实现该类的所有方法。 `get_loss_scale` 用于获取当前的梯度放大系数。 `update_loss_scale` 用于更新梯度放大系数,该方法将在训练过程中被调用。 `get_update_cell` 用于获取更新梯度放大系数的 `Cell` 实例,该实例将在训练过程中被调用。当前多使用 `get_update_cell` 方式。
|
||||
派生类需要实现该类的所有方法。 `get_loss_scale` 用于获取当前的梯度放大系数。 `update_loss_scale` 用于更新梯度放大系数,该方法将在训练过程中被调用。 `get_update_cell` 用于获取更新梯度放大系数的 :class:`mindspore.nn.Cell` 实例,该实例将在训练过程中被调用。当前多使用 `get_update_cell` 方式。
|
||||
|
||||
例如::class:`mindspore.amp.FixedLossScaleManager` 和 :class:`mindspore.amp.DynamicLossScaleManager` 。
|
||||
|
||||
|
|
|
@ -10,6 +10,14 @@ mindspore.amp.LossScaler
|
|||
.. note::
|
||||
- 这是一个实验性接口,后续可能删除或修改。
|
||||
|
||||
.. py:method:: adjust(grads_finite)
|
||||
|
||||
根据梯度是否为有效值(无溢出)对 `scale_value` 进行调整。
|
||||
|
||||
**参数:**
|
||||
|
||||
- **grads_finite** (Tensor) - bool类型的标量Tensor,表示梯度是否为有效值(无溢出)。
|
||||
|
||||
.. py:method:: scale(inputs)
|
||||
|
||||
对inputs进行scale,`inputs \*= scale_value`。
|
||||
|
@ -26,11 +34,3 @@ mindspore.amp.LossScaler
|
|||
|
||||
- **inputs** (Union(Tensor, tuple(Tensor))) - 损失值或梯度。
|
||||
|
||||
.. py:method:: adjust(grads_finite)
|
||||
|
||||
根据梯度是否为有效值(无溢出)对 `scale_value` 进行调整。
|
||||
|
||||
**参数:**
|
||||
|
||||
- **grads_finite** (Tensor) - bool类型的标量Tensor,表示梯度是否为有效值(无溢出)。
|
||||
|
||||
|
|
|
@ -3,7 +3,7 @@ mindspore.amp.StaticLossScaler
|
|||
|
||||
.. py:class:: mindspore.amp.StaticLossScaler(scale_value)
|
||||
|
||||
损失缩放系数不变的管理器。
|
||||
Static Loss scale类。用固定的常数来scales和unscale损失或梯度。
|
||||
|
||||
.. note::
|
||||
- 这是一个实验性接口,后续可能删除或修改。
|
||||
|
@ -12,6 +12,14 @@ mindspore.amp.StaticLossScaler
|
|||
|
||||
- **scale_value** (Union(float, int)) - 缩放系数。
|
||||
|
||||
.. py:method:: adjust(grads_finite)
|
||||
|
||||
`scale_value` 值固定。
|
||||
|
||||
**参数:**
|
||||
|
||||
- **grads_finite** (Tensor) - bool类型的标量Tensor,表示梯度是否为有效值(无溢出)。
|
||||
|
||||
.. py:method:: scale(inputs)
|
||||
|
||||
对inputs进行scale,`inputs \*= scale_value`。
|
||||
|
@ -26,12 +34,4 @@ mindspore.amp.StaticLossScaler
|
|||
|
||||
**参数:**
|
||||
|
||||
- **inputs** (Union(Tensor, tuple(Tensor))) - 损失值或梯度。
|
||||
|
||||
.. py:method:: adjust(grads_finite)
|
||||
|
||||
`scale_value` 值固定。
|
||||
|
||||
**参数:**
|
||||
|
||||
- **grads_finite** (Tensor) - bool类型的标量Tensor,表示梯度是否为有效值(无溢出)。
|
||||
- **inputs** (Union(Tensor, tuple(Tensor))) - 损失值或梯度。
|
|
@ -34,7 +34,7 @@ mindspore.nn.Adadelta
|
|||
.. include:: mindspore.nn.optim_group_gc.rst
|
||||
.. include:: mindspore.nn.optim_group_order.rst
|
||||
|
||||
- **learning_rate** (Union[float, Tensor, Iterable, LearningRateSchedule]) - 默认值:1.0。
|
||||
- **learning_rate** (Union[float, int, Tensor, Iterable, LearningRateSchedule]) - 默认值:1.0。
|
||||
|
||||
.. include:: mindspore.nn.optim_arg_dynamic_lr.rst
|
||||
|
||||
|
|
|
@ -14,7 +14,7 @@ mindspore.nn.Conv2dTranspose
|
|||
**参数:**
|
||||
|
||||
- **in_channels** (int) - Conv2dTranspose层输入Tensor的空间维度。
|
||||
- **out_channels** (dict) - Conv2dTranspose层输出Tensor的空间维度。
|
||||
- **out_channels** (int) - Conv2dTranspose层输出Tensor的空间维度。
|
||||
- **kernel_size** (Union[int, tuple[int]]) - 指定二维卷积核的高度和宽度。数据类型为整型或两个整型的tuple。一个整数表示卷积核的高度和宽度均为该值。两个整数的tuple分别表示卷积核的高度和宽度。
|
||||
- **stride** (Union[int, tuple[int]]) - 二维卷积核的移动步长。数据类型为整型或两个整型的tuple。一个整数表示在高度和宽度方向的移动步长均为该值。两个整数的tuple分别表示在高度和宽度方向的移动步长。默认值:1。
|
||||
- **pad_mode** (str) - 指定填充模式。可选值为"same"、"valid"、"pad"。默认值:"same"。
|
||||
|
|
|
@ -3,7 +3,7 @@ mindspore.nn.DiceLoss
|
|||
|
||||
.. py:class:: mindspore.nn.DiceLoss(smooth=1e-5)
|
||||
|
||||
Dice系数是一个集合相似性loss,用于计算两个样本之间的相似性。当分割结果最好时,Dice系数的值为1,当分割结果最差时,Dice系数的值为0。
|
||||
Dice系数是一个集合相似性loss,用于计算两个样本之间的相似性。当分割结果最好时,Dice系数的值为1,当分割结果最差时,Dice系数的值为0。
|
||||
|
||||
Dice系数表示两个对象之间的面积与总面积的比率。
|
||||
函数如下:
|
||||
|
@ -11,7 +11,7 @@ mindspore.nn.DiceLoss
|
|||
.. math::
|
||||
dice = 1 - \frac{2 * |pred \bigcap true|}{|pred| + |true| + smooth}
|
||||
|
||||
:math:`pred` 表示 `logits` , :math:`true` 表示 `labels` 。
|
||||
:math:`pred` 表示 `logits` ,:math:`true` 表示 `labels` 。
|
||||
|
||||
**参数:**
|
||||
|
||||
|
|
|
@ -7,7 +7,7 @@ mindspore.nn.DynamicLossScaleUpdateCell
|
|||
|
||||
使用混合精度功能进行训练时,初始损失缩放系数值为 `loss_scale_value`。在每个训练步骤中,当出现溢出时,通过计算公式 `loss_scale`/`scale_factor` 减小损失缩放系数。如果连续 `scale_window` 步(step)未溢出,则将通过 `loss_scale` * `scale_factor` 增大损失缩放系数。
|
||||
|
||||
该类是 :class:`mindspore.DynamicLossScaleManager` 的 `get_update_cell` 方法的返回值。训练过程中,类 :class:`mindspore.nn.TrainOneStepWithLossScaleCell` 会调用该Cell来更新损失缩放系数。
|
||||
该类是 :class:`mindspore.amp.DynamicLossScaleManager` 的 `get_update_cell` 方法的返回值。训练过程中,类 :class:`mindspore.nn.TrainOneStepWithLossScaleCell` 会调用该Cell来更新损失缩放系数。
|
||||
|
||||
**参数:**
|
||||
|
||||
|
|
|
@ -5,7 +5,7 @@ mindspore.nn.FixedLossScaleUpdateCell
|
|||
|
||||
固定损失缩放系数的神经元。
|
||||
|
||||
该类是 :class:`mindspore.FixedLossScaleManager` 的 `get_update_cell` 方法的返回值。训练过程中,类 :class:`mindspore.nn.TrainOneStepWithLossScaleCell` 会调用该Cell。
|
||||
该类是 :class:`mindspore.amp.FixedLossScaleManager` 的 `get_update_cell` 方法的返回值。训练过程中,类 :class:`mindspore.nn.TrainOneStepWithLossScaleCell` 会调用该Cell。
|
||||
|
||||
**参数:**
|
||||
|
||||
|
|
|
@ -27,7 +27,7 @@ mindspore.nn.GELU
|
|||
|
||||
**输入:**
|
||||
|
||||
- **x** (Tensor) - 用于计算GELU的Tensor。数据类型为float16或float32。shape是 :math:`(N,*)` , :math:`*` 表示任意的附加维度数。
|
||||
- **x** (Tensor) - 用于计算GELU的Tensor。数据类型为float16或float32。shape是 :math:`(N,*)` , :math:`*` 表示任意的附加维度数。
|
||||
|
||||
**输出:**
|
||||
|
||||
|
|
|
@ -56,7 +56,7 @@ mindspore.nn.RMSProp
|
|||
.. include:: mindspore.nn.optim_group_gc.rst
|
||||
.. include:: mindspore.nn.optim_group_order.rst
|
||||
|
||||
- **learning_rate** (Union[float, Tensor, Iterable, LearningRateSchedule]) - 默认值:0.1。
|
||||
- **learning_rate** (Union[float, int, Tensor, Iterable, LearningRateSchedule]) - 默认值:0.1。
|
||||
|
||||
.. include:: mindspore.nn.optim_arg_dynamic_lr.rst
|
||||
|
||||
|
|
|
@ -11,7 +11,7 @@ mindspore.nn.SampledSoftmaxLoss
|
|||
|
||||
- **num_sampled** (int) - 抽样的类别数。
|
||||
- **num_classes** (int) - 类别总数。
|
||||
- **num_true** (int):每个训练样本的类别数。默认值:1。
|
||||
- **num_true** (int) - 每个训练样本的类别数。默认值:1。
|
||||
- **sampled_values** (Union[list, tuple]) - 抽样候选值。由 `*CandidateSampler` 函数返回的(`sampled_candidates`, `true_expected_count` , `sampled_expected_count`)的list或tuple。如果默认值为None,则应用 `UniformCandidateSampler` 。
|
||||
- **remove_accidental_hits** (bool) - 是否移除抽样中的目标类等于标签的情况。默认值:True。
|
||||
- **seed** (int) - 抽样的随机种子。默认值:0。
|
||||
|
|
|
@ -7,13 +7,13 @@ mindspore.nn.SoftmaxCrossEntropyWithLogits
|
|||
|
||||
使用交叉熵损失函数计算出输入概率(使用softmax函数计算)和真实值之间的误差。
|
||||
|
||||
对于每个实例 :math:`x_i` ,i的范围为0到N-1,则可得损失为:
|
||||
对于每个实例 :math:`x_i` ,i的范围为0到N-1,则可得损失为:
|
||||
|
||||
.. math::
|
||||
\ell(x_i, c) = - \log\left(\frac{\exp(x_i[c])}{\sum_j \exp(x_i[j])}\right)
|
||||
= -x_i[c] + \log\left(\sum_j \exp(x_i[j])\right)
|
||||
|
||||
其中 :math:`x_i` 是一维的Tensor, :math:`c` 为one-hot中等于1的位置。
|
||||
其中 :math:`x_i` 是一维的Tensor, :math:`c` 为one-hot中等于1的位置。
|
||||
|
||||
.. note::
|
||||
虽然目标值是互斥的,即目标值中只有一个为正,但预测的概率不为互斥。只要求输入的预测概率分布有效。
|
||||
|
|
|
@ -66,7 +66,7 @@ mindspore.nn.TrainOneStepWithLossScaleCell
|
|||
|
||||
**参数:**
|
||||
|
||||
- **sens** (Tensor) - 新的损失缩放系数,其shape和类型需要与原始 `scale_sense` 相同。
|
||||
- **sens** (Tensor) - 新的损失缩放系数,其shape和类型需要与原始 `scale_sense` 相同。
|
||||
|
||||
.. py:method:: start_overflow_check(pre_cond, compute_input)
|
||||
|
||||
|
|
Loading…
Reference in New Issue