From 1c6864bc07672c88516bd28e9a3d932dcd11fc37 Mon Sep 17 00:00:00 2001 From: zhangyi Date: Wed, 7 Sep 2022 16:30:36 +0800 Subject: [PATCH] modify the rst fils 0907 --- .../api_python/nn/mindspore.nn.Adagrad.rst | 6 +++++- docs/api/api_python/nn/mindspore.nn.Adam.rst | 2 +- .../api_python/nn/mindspore.nn.AvgPool1d.rst | 2 ++ .../nn/mindspore.nn.BatchNorm2d.rst | 2 +- .../nn/mindspore.nn.ConfusionMatrixMetric.rst | 4 ++-- .../api/api_python/nn/mindspore.nn.Conv2d.rst | 20 +++++++++---------- docs/api/api_python/nn/mindspore.nn.Dense.rst | 4 ++-- .../api_python/nn/mindspore.nn.Dropout2d.rst | 2 +- .../api_python/nn/mindspore.nn.Dropout3d.rst | 2 +- .../nn/mindspore.nn.ExponentialDecayLR.rst | 8 ++++---- .../api_python/nn/mindspore.nn.LogSigmoid.rst | 2 +- .../api_python/nn/mindspore.nn.Momentum.rst | 4 ++-- .../api_python/nn/mindspore.nn.Optimizer.rst | 2 +- docs/api/api_python/nn/mindspore.nn.PReLU.rst | 2 ++ .../api_python/nn/mindspore.nn.Perplexity.rst | 2 +- docs/api/api_python/nn/mindspore.nn.SGD.rst | 14 ++++++------- 16 files changed, 43 insertions(+), 35 deletions(-) diff --git a/docs/api/api_python/nn/mindspore.nn.Adagrad.rst b/docs/api/api_python/nn/mindspore.nn.Adagrad.rst index d1d9f4fab1d..ab3cd2f7bef 100644 --- a/docs/api/api_python/nn/mindspore.nn.Adagrad.rst +++ b/docs/api/api_python/nn/mindspore.nn.Adagrad.rst @@ -58,7 +58,11 @@ mindspore.nn.Adagrad .. include:: mindspore.nn.optim_arg_loss_scale.rst - - **weight_decay** (Union[float, int]) - 要乘以权重的权重衰减值,必须大于等于0.0。默认值:0.0。 + - **weight_decay** (Union[float, int, Cell]) - 要乘以权重的权重衰减值,必须大于等于0.0。默认值:0.0。 + + - float:固定的权量衰减值。必须等于或大于0。 + - int:固定的权量衰减值。必须等于或大于0。它将会被转换为float类型。 + - Cell:权重衰减此时是动态的。在训练期间,优化器调用该Cell的实例,以获取当前阶段所要使用的权重衰减值。 **输入:** diff --git a/docs/api/api_python/nn/mindspore.nn.Adam.rst b/docs/api/api_python/nn/mindspore.nn.Adam.rst index dcd9f18f410..c4628bd58da 100644 --- a/docs/api/api_python/nn/mindspore.nn.Adam.rst +++ b/docs/api/api_python/nn/mindspore.nn.Adam.rst @@ -59,7 +59,7 @@ mindspore.nn.Adam .. include:: mindspore.nn.optim_group_gc.rst .. include:: mindspore.nn.optim_group_order.rst - - **learning_rate** (Union[float, Tensor, iterable, LearningRateSchedule]): 默认值:1e-3。 + - **learning_rate** (Union[float, Tensor, iterable, LearningRateSchedule]) - 默认值:1e-3。 .. include:: mindspore.nn.optim_arg_dynamic_lr.rst diff --git a/docs/api/api_python/nn/mindspore.nn.AvgPool1d.rst b/docs/api/api_python/nn/mindspore.nn.AvgPool1d.rst index eb3ea844398..a4de3456c55 100644 --- a/docs/api/api_python/nn/mindspore.nn.AvgPool1d.rst +++ b/docs/api/api_python/nn/mindspore.nn.AvgPool1d.rst @@ -5,6 +5,8 @@ mindspore.nn.AvgPool1d 对输入的多维数据进行一维平面上的平均池化运算。 + 在一个输入Tensor上应用1D average pooling,可被视为组成一个1D输入平面。 + 通常,输入的shape为 :math:`(N_{in}, C_{in}, L_{in})` ,AvgPool1d在 :math:`(L_{in})` 维度上输出区域平均值。 给定 `kernel_size` 为 :math:`k` 和 `stride` ,公式定义如下: diff --git a/docs/api/api_python/nn/mindspore.nn.BatchNorm2d.rst b/docs/api/api_python/nn/mindspore.nn.BatchNorm2d.rst index 85dfb6037a2..e5faee17a8f 100644 --- a/docs/api/api_python/nn/mindspore.nn.BatchNorm2d.rst +++ b/docs/api/api_python/nn/mindspore.nn.BatchNorm2d.rst @@ -31,7 +31,7 @@ mindspore.nn.BatchNorm2d - **beta_init** (Union[Tensor, str, Initializer, numbers.Number]) - :math:`\beta` 参数的初始化方法。str的值引用自函数 `mindspore.common.initializer`,包括'zeros'、'ones'等。默认值:'zeros'。 - **moving_mean_init** (Union[Tensor, str, Initializer, numbers.Number]) - 动态平均值的初始化方法。str的值引用自函数 `mindspore.common.initializer`,包括'zeros'、'ones'等。默认值:'zeros'。 - **moving_var_init** (Union[Tensor, str, Initializer, numbers.Number]) - 动态方差的初始化方法。str的值引用自函数 `mindspore.common.initializer`,包括'zeros'、'ones'等。默认值:'ones'。 - - **use_batch_statistics** (bool) + - **use_batch_statistics** (bool) - - 如果为True,则使用当前批处理数据的平均值和方差值,并跟踪运行平均值和运行方差。 - 如果为False,则使用指定值的平均值和方差值,不跟踪统计值。 - 如果为None,则根据训练和验证模式自动设置 `use_batch_statistics` 为True或False。在训练时, `use_batch_statistics会` 设置为True。在验证时, `use_batch_statistics` 会自动设置为False。默认值:None。 diff --git a/docs/api/api_python/nn/mindspore.nn.ConfusionMatrixMetric.rst b/docs/api/api_python/nn/mindspore.nn.ConfusionMatrixMetric.rst index bdca139102e..f27e4cc1278 100644 --- a/docs/api/api_python/nn/mindspore.nn.ConfusionMatrixMetric.rst +++ b/docs/api/api_python/nn/mindspore.nn.ConfusionMatrixMetric.rst @@ -42,10 +42,10 @@ mindspore.nn.ConfusionMatrixMetric - **inputs** (tuple) - `y_pred` 和 `y` 。 `y_pred` 和 `y` 是 `Tensor` 、列表或数组。 - - **y_pred** (ndarray):待计算的输入数据。格式必须为one-hot,且第一个维度是batch。 + - **y_pred** (ndarray) - 待计算的输入数据。格式必须为one-hot,且第一个维度是batch。 `y_pred` 的shape是 :math:`(N, C, ...)` 或 :math:`(N, ...)` 。 至于分类任务, `y_pred` 的shape应为[BN],其中N大于1。对于分割任务,shape应为[BNHW]或[BNHWD]。 - - **y** (ndarray):计算度量值的真实值。格式必须为one-hot,且第一个维度是batch。`y` 的shape是 :math:`(N, C, ...)` 。 + - **y** (ndarray) - 计算度量值的真实值。格式必须为one-hot,且第一个维度是batch。`y` 的shape是 :math:`(N, C, ...)` 。 **异常:** diff --git a/docs/api/api_python/nn/mindspore.nn.Conv2d.rst b/docs/api/api_python/nn/mindspore.nn.Conv2d.rst index 4fdeb7646c7..9b31f2e422d 100644 --- a/docs/api/api_python/nn/mindspore.nn.Conv2d.rst +++ b/docs/api/api_python/nn/mindspore.nn.Conv2d.rst @@ -18,23 +18,23 @@ mindspore.nn.Conv2d **参数:** - - **in_channels** (`int`) - Conv2d层输入Tensor的空间维度。 - - **out_channels** (`dict`) - Conv2d层输出Tensor的空间维度。 - - **kernel_size** (`Union[int, tuple[int]]`) - 指定二维卷积核的高度和宽度。数据类型为整型或两个整型的tuple。一个整数表示卷积核的高度和宽度均为该值。两个整数的tuple分别表示卷积核的高度和宽度。 - - **stride** (`Union[int, tuple[int]]`) - 二维卷积核的移动步长。数据类型为整型或两个整型的tuple。一个整数表示在高度和宽度方向的移动步长均为该值。两个整数的tuple分别表示在高度和宽度方向的移动步长。默认值:1。 - - **pad_mode** (`str`) - 指定填充模式。可选值为"same"、"valid"、"pad"。默认值:"same"。 + - **in_channels** (int) - Conv2d层输入Tensor的空间维度。 + - **out_channels** (dict) - Conv2d层输出Tensor的空间维度。 + - **kernel_size** (Union[int, tuple[int]]) - 指定二维卷积核的高度和宽度。数据类型为整型或两个整型的tuple。一个整数表示卷积核的高度和宽度均为该值。两个整数的tuple分别表示卷积核的高度和宽度。 + - **stride** (Union[int, tuple[int]]) - 二维卷积核的移动步长。数据类型为整型或两个整型的tuple。一个整数表示在高度和宽度方向的移动步长均为该值。两个整数的tuple分别表示在高度和宽度方向的移动步长。默认值:1。 + - **pad_mode** (str) - 指定填充模式。可选值为"same"、"valid"、"pad"。默认值:"same"。 - **same**:输出的高度和宽度分别与输入整除 `stride` 后的值相同。若设置该模式,`padding` 的值必须为0。 - **valid**:在不填充的前提下返回有效计算所得的输出。不满足计算的多余像素会被丢弃。如果设置此模式,则 `padding` 的值必须为0。 - **pad**:对输入进行填充。在输入的高度和宽度方向上填充 `padding` 大小的0。如果设置此模式, `padding` 必须大于或等于0。 - - **padding** (`Union[int, tuple[int]]`) - 输入的高度和宽度方向上填充的数量。数据类型为int或包含4个整数的tuple。如果 `padding` 是一个整数,那么上、下、左、右的填充都等于 `padding` 。如果 `padding` 是一个有4个整数的tuple,那么上、下、左、右的填充分别等于 `padding[0]` 、 `padding[1]` 、 `padding[2]` 和 `padding[3]` 。值应该要大于等于0,默认值:0。 - - **dilation** (`Union[int, tuple[int]]`) - 二维卷积核膨胀尺寸。数据类型为整型或具有两个整型的tuple。若 :math:`k > 1` ,则kernel间隔 `k` 个元素进行采样。垂直和水平方向上的 `k` ,其取值范围分别为[1, H]和[1, W]。默认值:1。 - - **group** (`int`) - 将过滤器拆分为组, `in_channels` 和 `out_channels` 必须可被 `group` 整除。如果组数等于 `in_channels` 和 `out_channels` ,这个二维卷积层也被称为二维深度卷积层。默认值:1. - - **has_bias** (`bool`) - Conv2d层是否添加偏置参数。默认值:False。 + - **padding** (Union[int, tuple[int]]) - 输入的高度和宽度方向上填充的数量。数据类型为int或包含4个整数的tuple。如果 `padding` 是一个整数,那么上、下、左、右的填充都等于 `padding` 。如果 `padding` 是一个有4个整数的tuple,那么上、下、左、右的填充分别等于 `padding[0]` 、 `padding[1]` 、 `padding[2]` 和 `padding[3]` 。值应该要大于等于0,默认值:0。 + - **dilation** (Union[int, tuple[int]]) - 二维卷积核膨胀尺寸。数据类型为整型或具有两个整型的tuple。若 :math:`k > 1` ,则kernel间隔 `k` 个元素进行采样。垂直和水平方向上的 `k` ,其取值范围分别为[1, H]和[1, W]。默认值:1。 + - **group** (int) - 将过滤器拆分为组, `in_channels` 和 `out_channels` 必须可被 `group` 整除。如果组数等于 `in_channels` 和 `out_channels` ,这个二维卷积层也被称为二维深度卷积层。默认值:1. + - **has_bias** (bool) - Conv2d层是否添加偏置参数。默认值:False。 - **weight_init** (Union[Tensor, str, Initializer, numbers.Number]) - 权重参数的初始化方法。它可以是Tensor,str,Initializer或numbers.Number。当使用str时,可选"TruncatedNormal","Normal","Uniform","HeUniform"和"XavierUniform"分布以及常量"One"和"Zero"分布的值,可接受别名"xavier_uniform","he_uniform","ones"和"zeros"。上述字符串大小写均可。更多细节请参考Initializer的值。默认值:"normal"。 - **bias_init** (Union[Tensor, str, Initializer, numbers.Number]) - 偏置参数的初始化方法。可以使用的初始化方法与"weight_init"相同。更多细节请参考Initializer的值。默认值:"zeros"。 - - **data_format** (`str`) - 数据格式的可选值有"NHWC","NCHW"。默认值:"NCHW"。 + - **data_format** (str) - 数据格式的可选值有"NHWC","NCHW"。默认值:"NCHW"。 **输入:** diff --git a/docs/api/api_python/nn/mindspore.nn.Dense.rst b/docs/api/api_python/nn/mindspore.nn.Dense.rst index d7e6da238c9..8f81efca323 100644 --- a/docs/api/api_python/nn/mindspore.nn.Dense.rst +++ b/docs/api/api_python/nn/mindspore.nn.Dense.rst @@ -19,11 +19,11 @@ mindspore.nn.Dense - **weight_init** (Union[Tensor, str, Initializer, numbers.Number]) - 权重参数的初始化方法。数据类型与 `x` 相同。str的值引用自函数 `initializer`。默认值:'normal'。 - **bias_init** (Union[Tensor, str, Initializer, numbers.Number]) - 偏置参数的初始化方法。数据类型与 `x` 相同。str的值引用自函数 `initializer`。默认值:'zeros'。 - **has_bias** (bool) - 是否使用偏置向量 :math:`\text{bias}` 。默认值:True。 - - **activation** (Union[str, Cell, Primitive]) - 应用于全连接层输出的激活函数。可指定激活函数名,如'relu',或具体激活函数,如mindspore.nn.ReLU()。默认值:None。 + - **activation** (Union[str, Cell, Primitive, None]) - 应用于全连接层输出的激活函数。可指定激活函数名,如'relu',或具体激活函数,如mindspore.nn.ReLU()。默认值:None。 **输入:** - - **x** (Tensor) - shape为 :math:`(*,in\_channels)` 的Tensor。 参数中的 `in_channels` 应等于输入中的 :math:`in\_channels` 。 + - **x** (Tensor) - shape为 :math:`(*,in\_channels)` 的Tensor。参数中的 `in_channels` 应等于输入中的 :math:`in\_channels` 。 **输出:** diff --git a/docs/api/api_python/nn/mindspore.nn.Dropout2d.rst b/docs/api/api_python/nn/mindspore.nn.Dropout2d.rst index 8c2d805a43a..f747e5497bb 100644 --- a/docs/api/api_python/nn/mindspore.nn.Dropout2d.rst +++ b/docs/api/api_python/nn/mindspore.nn.Dropout2d.rst @@ -3,7 +3,7 @@ mindspore.nn.Dropout2d .. py:class:: mindspore.nn.Dropout2d(p=0.5) - 在训练期间,以服从伯努利分布的概率 `p` 随机将输入Tensor的某些通道归零。(对于形状为 `NCHW` 的四维Tensor,其通道特征图指的是后两维 `HW` 形状的二维特征图)。 + 在训练期间,以服从伯努利分布的概率 `p` 随机将输入Tensor的某些通道归零(对于形状为 `NCHW` 的四维Tensor,其通道特征图指的是后两维 `HW` 形状的二维特征图)。 例如,在批处理输入中 :math:`i\_th` 批, :math:`j\_th` 通道的 `input[i, j]` `2D` Tensor 是一个待处理数据。 每个通道将会独立依据伯努利分布概率 `p` 来确定是否被清零。 diff --git a/docs/api/api_python/nn/mindspore.nn.Dropout3d.rst b/docs/api/api_python/nn/mindspore.nn.Dropout3d.rst index 8ec4e68cadb..a1184fad6bb 100644 --- a/docs/api/api_python/nn/mindspore.nn.Dropout3d.rst +++ b/docs/api/api_python/nn/mindspore.nn.Dropout3d.rst @@ -3,7 +3,7 @@ mindspore.nn.Dropout3d .. py:class:: mindspore.nn.Dropout3d(p=0.5) - 在训练期间,以服从伯努利分布的概率 `p` 随机将输入Tensor的某些通道归零。(对于形状为 `NCDHW` 的 `5D` Tensor。 + 在训练期间,以服从伯努利分布的概率 `p` 随机将输入Tensor的某些通道归零(对于形状为 `NCDHW` 的 `5D` Tensor。 其通道特征图指的是后三维 `DHW` 形状的三维特征图)。 例如,在批处理输入中 :math:`i\_th` 批, :math:`j\_th` 通道的 `input[i, j]` `3D` Tensor 是一个待处理数据。 每个通道将会独立依据伯努利分布概率 `p` 来确定是否被清零。 diff --git a/docs/api/api_python/nn/mindspore.nn.ExponentialDecayLR.rst b/docs/api/api_python/nn/mindspore.nn.ExponentialDecayLR.rst index 6dd8489b534..a41b0b17617 100644 --- a/docs/api/api_python/nn/mindspore.nn.ExponentialDecayLR.rst +++ b/docs/api/api_python/nn/mindspore.nn.ExponentialDecayLR.rst @@ -22,10 +22,10 @@ mindspore.nn.ExponentialDecayLR **参数:** - - **learning_rate** (float): 学习率的初始值。 - - **decay_rate** (float): 衰减率。 - - **decay_steps** (int): 进行衰减的step数。 - - **is_stair** (bool): 如果为True,则学习率每 `decay_steps` 步衰减一次。默认值:False。 + - **learning_rate** (float) - 学习率的初始值。 + - **decay_rate** (float) - 衰减率。 + - **decay_steps** (int) - 进行衰减的step数。 + - **is_stair** (bool) - 如果为True,则学习率每 `decay_steps` 步衰减一次。默认值:False。 **输入:** diff --git a/docs/api/api_python/nn/mindspore.nn.LogSigmoid.rst b/docs/api/api_python/nn/mindspore.nn.LogSigmoid.rst index 038568a5698..fc68b93f652 100644 --- a/docs/api/api_python/nn/mindspore.nn.LogSigmoid.rst +++ b/docs/api/api_python/nn/mindspore.nn.LogSigmoid.rst @@ -5,7 +5,7 @@ mindspore.nn.LogSigmoid Log Sigmoid激活函数。 - 按元素计算Log Sigmoid激活函数。 + 按元素计算Log Sigmoid激活函数。输入是任意格式的Tensor。 Log Sigmoid定义为: diff --git a/docs/api/api_python/nn/mindspore.nn.Momentum.rst b/docs/api/api_python/nn/mindspore.nn.Momentum.rst index eab51abf771..8b54fcd5efe 100644 --- a/docs/api/api_python/nn/mindspore.nn.Momentum.rst +++ b/docs/api/api_python/nn/mindspore.nn.Momentum.rst @@ -27,7 +27,7 @@ mindspore.nn.Momentum **参数:** - - **params** (Union[list[Parameter], list[dict]]): 必须是 `Parameter` 组成的列表或字典组成的列表。当列表元素是字典时,字典的键可以是"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params": + - **params** (Union[list[Parameter], list[dict]]) - 必须是 `Parameter` 组成的列表或字典组成的列表。当列表元素是字典时,字典的键可以是"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params": .. include:: mindspore.nn.optim_group_param.rst .. include:: mindspore.nn.optim_group_lr.rst @@ -35,7 +35,7 @@ mindspore.nn.Momentum .. include:: mindspore.nn.optim_group_gc.rst .. include:: mindspore.nn.optim_group_order.rst - - **learning_rate** (Union[float, int, Tensor, Iterable, LearningRateSchedule]): + - **learning_rate** (Union[float, int, Tensor, Iterable, LearningRateSchedule]) - .. include:: mindspore.nn.optim_arg_dynamic_lr.rst diff --git a/docs/api/api_python/nn/mindspore.nn.Optimizer.rst b/docs/api/api_python/nn/mindspore.nn.Optimizer.rst index df5d23c958b..07d367ed853 100644 --- a/docs/api/api_python/nn/mindspore.nn.Optimizer.rst +++ b/docs/api/api_python/nn/mindspore.nn.Optimizer.rst @@ -12,7 +12,7 @@ mindspore.nn.Optimizer **参数:** - - **learning_rate** (Union[float, int, Tensor, Iterable, LearningRateSchedule]) - + - **learning_rate** (Union[float, int, Tensor, Iterable, LearningRateSchedule]) - .. include:: mindspore.nn.optim_arg_dynamic_lr.rst diff --git a/docs/api/api_python/nn/mindspore.nn.PReLU.rst b/docs/api/api_python/nn/mindspore.nn.PReLU.rst index 80b3fcf7899..c863f358bf8 100644 --- a/docs/api/api_python/nn/mindspore.nn.PReLU.rst +++ b/docs/api/api_python/nn/mindspore.nn.PReLU.rst @@ -5,6 +5,8 @@ mindspore.nn.PReLU PReLU激活层(PReLU Activation Operator)。 + 逐元素应用PReLU function。 + 公式定义为: .. math:: diff --git a/docs/api/api_python/nn/mindspore.nn.Perplexity.rst b/docs/api/api_python/nn/mindspore.nn.Perplexity.rst index bf8ce557db5..cd3e7c11ac4 100644 --- a/docs/api/api_python/nn/mindspore.nn.Perplexity.rst +++ b/docs/api/api_python/nn/mindspore.nn.Perplexity.rst @@ -12,7 +12,7 @@ mindspore.nn.Perplexity **参数:** - - **ignore_label** (int) - 计数时要忽略的无效标签的索引。如果设置为None,它将包括所有条目。默认值:None。 + - **ignore_label** (Union[int, None]) - 计数时要忽略的无效标签的索引。如果设置为None,它将包括所有条目。默认值:None。 .. py:method:: clear() diff --git a/docs/api/api_python/nn/mindspore.nn.SGD.rst b/docs/api/api_python/nn/mindspore.nn.SGD.rst index dff2f11b5e1..c500eb27c18 100644 --- a/docs/api/api_python/nn/mindspore.nn.SGD.rst +++ b/docs/api/api_python/nn/mindspore.nn.SGD.rst @@ -30,24 +30,24 @@ mindspore.nn.SGD **参数:** - - **params** (Union[list[Parameter], list[dict]]): 当 `params` 为会更新的 `Parameter` 列表时,`params` 中的元素必须为类 `Parameter`。当 `params` 为 `dict` 列表时,"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params"为可以解析的键。 + - **params** (Union[list[Parameter], list[dict]]) - 当 `params` 为会更新的 `Parameter` 列表时,`params` 中的元素必须为类 `Parameter`。当 `params` 为 `dict` 列表时,"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params"为可以解析的键。 .. include:: mindspore.nn.optim_group_param.rst .. include:: mindspore.nn.optim_group_lr.rst - - **weight_decay** : 目前不支持通过参数分组使用不同的weight_decay。 + - **weight_decay** - 目前不支持通过参数分组使用不同的weight_decay。 .. include:: mindspore.nn.optim_group_gc.rst .. include:: mindspore.nn.optim_group_order.rst - - **learning_rate** (Union[float, int, Tensor, Iterable, LearningRateSchedule]): 默认值:0.1。 + - **learning_rate** (Union[float, int, Tensor, Iterable, LearningRateSchedule]) - 默认值:0.1。 .. include:: mindspore.nn.optim_arg_dynamic_lr.rst - - **momentum** (float): 浮点动量,必须大于等于0.0。默认值:0.0。 - - **dampening** (float): 浮点动量阻尼值,必须大于等于0.0。默认值:0.0。 - - **weight_decay** (float): 权重衰减(L2 penalty),必须大于等于0。默认值:0.0。 - - **nesterov** (bool): 启用Nesterov动量。如果使用Nesterov,动量必须为正,阻尼必须等于0.0。默认值:False。 + - **momentum** (float) - 浮点动量,必须大于等于0.0。默认值:0.0。 + - **dampening** (float) - 浮点动量阻尼值,必须大于等于0.0。默认值:0.0。 + - **weight_decay** (float) - 权重衰减(L2 penalty),必须大于等于0。默认值:0.0。 + - **nesterov** (bool) - 启用Nesterov动量。如果使用Nesterov,动量必须为正,阻尼必须等于0.0。默认值:False。 .. include:: mindspore.nn.optim_arg_loss_scale.rst