update api format

This commit is contained in:
yingchen 2021-12-04 18:37:47 +08:00
parent c88da99f77
commit 999ce681a4
32 changed files with 107 additions and 106 deletions

View File

@ -110,9 +110,9 @@ mindspore.common.initializer
.. math::
boundary = gain * \sqrt{\frac{6}{n_{in} + n_{out}}}
- `gain` 是一个可选的缩放因子。
- `n_{in}` 为权重Tensor中输入单元的数量。
- `n_{out}` 为权重Tensor中输出单元的数量。
- :math:`gain` 是一个可选的缩放因子。
- :math:`n_{in}` 为权重Tensor中输入单元的数量。
- :math:`n_{out}` 为权重Tensor中输出单元的数量。
有关 XavierUniform 算法的详细信息,请查看 http://proceedings.mlr.press/v9/glorot10a.html。

View File

@ -57,9 +57,9 @@ mindspore.communication
**异常:**
**TypeError** 在参数 `group` 不是字符串时抛出。
**ValueError** 在后台不可用时抛出。
**RuntimeError** HCCLNCCL服务不可用时抛出。
- **TypeError** 在参数 `group` 不是字符串时抛出。
- **ValueError** 在后台不可用时抛出。
- **RuntimeError** HCCLNCCL服务不可用时抛出。
.. py:class:: mindspore.communication.get_group_size(group=GlobalComm.WORLD_COMM_GROUP)

View File

@ -5,23 +5,22 @@ mindspore.LossScaleManager
混合精度梯度放大系数loss scale管理器的抽象类。
派生类需要实现该类的所有方法。 `get_loss_scale` 用于获取当前的梯度放大系数。 `update_loss_scale` 用于更新梯度放大系数,该方法将在训练过程中被调用。 `get_update_cell` 用于获取更新梯度放大系数的 `Cell` 实例,该实例将在训练过程中被调用。当前多使用`get_update_cell` 方式。
派生类需要实现该类的所有方法。 `get_loss_scale` 用于获取当前的梯度放大系数。 `update_loss_scale` 用于更新梯度放大系数,该方法将在训练过程中被调用。 `get_update_cell` 用于获取更新梯度放大系数的 `Cell` 实例,该实例将在训练过程中被调用。当前多使用 `get_update_cell` 方式。
例如::class:`mindspore.FixedLossScaleManager`:class:`mindspore.DynamicLossScaleManager`
.. py:method:: get_loss_scale()
获取梯度放大系数loss scale的值。
获取梯度放大系数loss scale的值。
.. py:method:: get_update_cell()
获取用于更新梯度放大系数的Cell实例。
获取用于更新梯度放大系数的Cell实例。
.. py:method:: update_loss_scale(overflow)
根据 `overflow` 状态更新梯度放大系数loss scale)。
根据 `overflow` 状态更新梯度放大系数loss scale)。
**参数:**
**参数:**
**overflow** (bool) - 表示训练过程是否溢出。
**overflow** (bool) - 表示训练过程是否溢出。

View File

@ -53,7 +53,7 @@ mindspore.dtype
``type_type`` 类型的类型定义。
``type_none`` 没有匹配的返回类型,对应 Python 中的 ``type(None)``
``symbolic_key````env_type`` 中用作变量的键的变量的值。
``env_type`` 用于存储函数的自由变量的梯度,其中键是自由变量节点的``symbolic_key``,值是梯度。
``env_type`` 用于存储函数的自由变量的梯度,其中键是自由变量节点的 `symbolic_key` ,值是梯度。
============================ =================
- **树形拓扑**

View File

@ -12,7 +12,7 @@
- **optimizer** (Cell) - 用于更新网络权重的优化器。如果 `optimizer` 为None `network` 中需要进行反向传播和网络权重更新。默认值None。
- **metrics** (Union[dict, set]) - 用于模型评估的一组评价函数。例如:{'accuracy', 'recall'}。默认值None。
- **eval_network** (Cell) - 用于评估的神经网络。未定义情况下,`Model` 会使用 `network``loss_fn` 封装一个 `eval_network` 。默认值None。
- **eval_indexes** (list) - 在定义 `eval_network` 的情况下使用。如果 `eval_indexes` 为默认值None`Model` 会将 `eval_network` 的所有输出传给 `metrics` 。如果配置 `eval_indexes` ,必须包含三个元素,分别为损失值、预测值和标签在`eval_network`输出中的位置,此时,损失值将传给损失评价函数,预测值和标签将传给其他评价函数。推荐使用评价函数的 `mindspore.nn.Metric.set_indexes` 代替 `eval_indexes` 。默认值None。
- **eval_indexes** (list) - 在定义 `eval_network` 的情况下使用。如果 `eval_indexes` 为默认值None`Model` 会将 `eval_network` 的所有输出传给 `metrics` 。如果配置 `eval_indexes` ,必须包含三个元素,分别为损失值、预测值和标签在 `eval_network` 输出中的位置,此时,损失值将传给损失评价函数,预测值和标签将传给其他评价函数。推荐使用评价函数的 `mindspore.nn.Metric.set_indexes` 代替 `eval_indexes` 。默认值None。
- **amp_level** (str) - `mindspore.build_train_network` 的可选参数 `level``level` 为混合精度等级,该参数支持["O0", "O2", "O3", "auto"]。默认值:"O0"。
- O0: 无变化。

View File

@ -6,7 +6,8 @@ mindspore.nn.Adagrad
使用ApplyAdagrad算子实现Adagrad算法。
Adagrad用于在线学习和随机优化。
请参阅论文`Efficient Learning using Forward-Backward Splitting <https://proceedings.neurips.cc/paper/2009/file/621bf66ddb7c962aa0d22ac97d69b793-Paper.pdf>`_
请参阅论文 `Efficient Learning using Forward-Backward Splitting <https://proceedings.neurips.cc/paper/2009/file/621bf66ddb7c962aa0d22ac97d69b793-Paper.pdf>`_
公式如下:
.. math::
@ -33,6 +34,7 @@ mindspore.nn.Adagrad
- **accum** (float) - 累加器 :math:`h` 的初始值必须大于等于零。默认值0.1。
- **learning_rate** (Union[float, Tensor, Iterable, LearningRateSchedule]) - 默认值0.001。
.. include:: mindspore.nn.optim_arg_dynamic_lr.rst
- **update_slots** (bool) - 如果为True则更新累加器 :math:`h` 。默认值True。

View File

@ -5,7 +5,7 @@ mindspore.nn.Adam
通过Adaptive Moment Estimation (Adam)算法更新梯度。
请参阅论文`Adam: A Method for Stochastic Optimization <https://arxiv.org/abs/1412.6980>`_
请参阅论文 `Adam: A Method for Stochastic Optimization <https://arxiv.org/abs/1412.6980>`_
公式如下:
@ -17,7 +17,7 @@ mindspore.nn.Adam
w_{t+1} = w_{t} - l * \frac{m_{t+1}}{\sqrt{v_{t+1}} + \epsilon}
\end{array}
:math:`m` 代表第一个动量矩阵 `moment1` :math:`v` 代表第二个动量矩阵 `moment2` :math:`g` 代表 `gradients` :math:`l` 代表缩放因子,:math:`\beta_1,\beta_2` 代表 `beta1``beta2` :math:`t` 代表当前step:math:`beta_1^t`:math:`beta_2^t` 代表 `beta1_power``beta2_power` :math:`\alpha` 代表 `learning_rate` :math:`w` 代表 `params` :math:`\epsilon` 代表 `eps`
:math:`m` 代表第一个动量矩阵 `moment1` :math:`v` 代表第二个动量矩阵 `moment2` :math:`g` 代表 `gradients` :math:`l` 代表缩放因子,:math:`\beta_1,\beta_2` 代表 `beta1``beta2` :math:`t` 代表当前step:math:`beta_1^t` :math:`beta_2^t` 代表 `beta1_power``beta2_power` :math:`\alpha` 代表 `learning_rate` :math:`w` 代表 `params` :math:`\epsilon` 代表 `eps`
.. note::
.. include:: mindspore.nn.optim_note_sparse.rst

View File

@ -1,4 +1,4 @@
Class mindspore.nn.F1
mindspore.nn.F1
=====================
.. py:class:: mindspore.nn.F1

View File

@ -1,6 +1,5 @@
mindspore.nn. mindspore.nn.FTRL
================================
mindspore.nn.FTRL
=================
.. py:class:: mindspore.nn.FTRL(*args, **kwargs)
使用ApplyFtrl算子实现FTRL算法。
@ -24,7 +23,7 @@ mindspore.nn. mindspore.nn.FTRL
\end{cases}\\
\end{array}
:math:`m` 表示累加器,:math:`g` 表示 `grads` :math:`t` 表示当前step:math:`u` 表示需要更新的线性系数,:math:`p` 表示` lr_power`:math:`\alpha` 表示 `learning_rate` :math:`\omega` 表示 `params`
:math:`m` 表示累加器,:math:`g` 表示 `grads` :math:`t` 表示当前step:math:`u` 表示需要更新的线性系数,:math:`p` 表示 `lr_power`:math:`\alpha` 表示 `learning_rate` :math:`\omega` 表示 `params`
.. note::
.. include:: mindspore.nn.optim_note_sparse.rst

View File

@ -33,7 +33,7 @@ mindspore.nn.InverseDecayLR
**输出:**
Tensor。当前step的学习率值shape为:math:`()`
Tensor。当前step的学习率值shape为 :math:`()`
**异常:**

View File

@ -22,7 +22,7 @@ mindspore.nn.Lamb
w_t = w_{t-1} -\eta_t \frac{\| w_{t-1} \|}{\| r_t + \lambda w_{t-1} \|} (r_t + \lambda w_{t-1})
\end{gather*}
其中math:`m` 代表第一个矩向量,:math:`v` 代表第二个矩向量,:math:`\eta` 表示学习率,:math:`\lambda` 表示LAMB权重衰减率。
其中, :math:`m` 代表第一个矩向量,:math:`v` 代表第二个矩向量,:math:`\eta` 表示学习率,:math:`\lambda` 表示LAMB权重衰减率。
.. note::
.. include:: mindspore.nn.optim_note_weight_decay.rst

View File

@ -42,7 +42,7 @@ mindspore.nn.LazyAdam
.. include:: mindspore.nn.optim_arg_dynamic_lr.rst
- **beta1** (float)`moment1` 的指数衰减率。参数范围0.0,1.0。默认值0.9。
- **beta2** (float)moment2` 的指数衰减率。参数范围0.0,1.0。默认值0.999。
- **beta2** (float)`moment2` 的指数衰减率。参数范围0.0,1.0。默认值0.999。
- **eps** (float)将添加到分母中以提高数值稳定性。必须大于0。默认值1e-8。
- **use_locking** (bool)是否对参数更新加锁保护。如果为True`w``m``v` 的Tensor更新将受到锁的保护。如果为False则结果不可预测。默认值False。
- **use_nesterov** (bool)是否使用Nesterov Accelerated Gradient (NAG)算法更新梯度。如果为True使用NAG更新梯度。如果为False则在不使用NAG的情况下更新梯度。默认值False。
@ -65,7 +65,7 @@ mindspore.nn.LazyAdam
- **TypeError**`beta1``beta2``eps``loss_scale` 不是float。
- **TypeError**`weight_decay` 不是float或int。
- **TypeError**`use_locking``use_nesterov` 不是bool。
- **ValueError**`loss_scale ``eps` 小于或等于0。
- **ValueError**`loss_scale` `eps` 小于或等于0。
- **ValueError**`beta1``beta2` 不在0.0,1.0)范围内。
- **ValueError**`weight_decay` 小于0。

View File

@ -31,16 +31,19 @@ mindspore.nn.Loss
Floatloss的平均值。
**异常:**
RuntimeError样本总数为0。
**异常:**
RuntimeError样本总数为0。
.. py:method:: update(*inputs)
更新内部评估结果。
**参数:**
inputs输入只包含一个元素且该元素为loss。loss的维度必须为0或1。
**参数:**
**异常:**
ValueError`inputs` 的长度不为1。
ValueError`inputs` 的维度不为0或1。
inputs输入只包含一个元素且该元素为loss。loss的维度必须为0或1。
**异常:**
**ValueError**`inputs` 的长度不为1。
**ValueError**`inputs` 的维度不为0或1。

View File

@ -20,7 +20,7 @@ mindspore.nn.Momentum
.. math::
p_{t+1} = p_{t} - lr \ast v_{t+1}
其中,:math:`grad`:math:`lr`:math:`p`:math:`v`:math:`u` 分别表示梯度、学习率、参数、矩Moment和动量Momentum
其中,:math:`grad`:math:`lr`:math:`p`:math:`v` :math:`u` 分别表示梯度、学习率、参数、矩Moment和动量Momentum
.. note::
.. include:: mindspore.nn.optim_note_weight_decay.rst

View File

@ -39,7 +39,7 @@ mindspore.nn.polynomial_decay_lr
**异常:**
- **TypeError**`learning_rate`,`end_learning_rate``power` 不是float。
- **TypeError**`learning_rate`, `end_learning_rate``power` 不是float。
- **TypeError**`decay_steps` 不是int或 `update_decay_steps` 不是bool。
- **ValueError**`end_learning_rate` 小于0或 `decay_steps` 小于1。
- **ValueError**`learning_rate``power` 小于或等于0。

View File

@ -10,14 +10,14 @@ mindspore.nn.Precision
.. math::
\text{precision} = \frac{\text{true_positive}}{\text{true_positive} + \text{false_positive}}
注:
.. note::
在多标签情况下, :math:`y`:math:`y_{pred}` 的元素必须为0或1。
**参数:**
**参数:**
- **eval_type** str- 支持'classification'和'multilabel'。默认值:'classification'。
**eval_type** str- 支持'classification'和'multilabel'。默认值:'classification'。
**样例:**
**样例:**
>>> import numpy as np
>>> from mindspore import nn, Tensor
@ -41,7 +41,7 @@ mindspore.nn.Precision
**参数:**
- **average** (bool) - 指定是否计算平均精度。默认值False。
**average** (bool) - 指定是否计算平均精度。默认值False。
**返回:**
@ -53,13 +53,12 @@ mindspore.nn.Precision
**参数:**
- **inputs** 输入 `y_pred``y``y_pred``y` 支持Tensor、list或numpy.ndarray类型。
**inputs** 输入 `y_pred``y``y_pred``y` 支持Tensor、list或numpy.ndarray类型。
对于'classification'情况,`y_pred` 在大多数情况下由范围 :math:`[0, 1]` 中的浮点数组成shape为 :math:`(N, C)` ,其中 :math:`N` 是样本数, :math:`C` 是类别数。
`y` 由整数值组成如果是one_hot编码格式shape是 :math:`(N,C)` 如果是类别索引shape是 :math:`(N,)`
对于'classification'情况,`y_pred` 在大多数情况下由范围 :math:`[0, 1]` 中的浮点数组成shape为 :math:`(N, C)` ,其中 :math:`N` 是样本数, :math:`C` 是类别数。`y` 由整数值组成如果是one_hot编码格式shape是 :math:`(N,C)` 如果是类别索引shape是 :math:`(N,)`
对于'multilabel'情况,`y_pred``y` 只能是值为0或1的one-hot编码格式其中值为1的索引表示正类别。`y_pred``y` 的shape都是 :math:`(N,C)`
对于'multilabel'情况,`y_pred``y` 只能是值为0或1的one-hot编码格式其中值为1的索引表示正类别。`y_pred``y` 的shape都是 :math:`(N,C)`
**异常:**
- **ValueError** - inputs数量不是2。
**ValueError** - inputs数量不是2。

View File

@ -34,7 +34,7 @@ mindspore.nn.ProximalAdagrad
.. include:: mindspore.nn.optim_group_gc.rst
.. include:: mindspore.nn.optim_group_order.rst
- **accum** (float):累加器`accum`的初始值起始值必须为零或正值。默认值0.1。
- **accum** (float):累加器 `accum` 的初始值起始值必须为零或正值。默认值0.1。
- **learning_rate** (Union[float, Tensor, Iterable, LearningRateSchedule]): 默认值1e-3。

View File

@ -10,14 +10,14 @@ mindspore.nn.Recall
.. math::
\text{recall} = \frac{\text{true_positive}}{\text{true_positive} + \text{false_negative}}
注:
.. note::
在多标签情况下, :math:`y`:math:`y_{pred}` 的元素必须为0或1。
**参数:**
**参数:**
- **eval_type** str- 支持'classification'和'multilabel'。默认值:'classification'。
**eval_type** str- 支持'classification'和'multilabel'。默认值:'classification'。
**样例:**
**样例:**
>>> import numpy as np
>>> from mindspore import nn, Tensor
@ -41,7 +41,7 @@ mindspore.nn.Recall
**参数:**
- **average** (bool) - 指定是否计算平均召回率。默认值False。
**average** (bool) - 指定是否计算平均召回率。默认值False。
**返回:**
@ -53,13 +53,12 @@ mindspore.nn.Recall
**参数:**
- **inputs** - 输入 `y_pred``y``y_pred``y` 支持Tensor、list或numpy.ndarray类型。
**inputs** - 输入 `y_pred``y``y_pred``y` 支持Tensor、list或numpy.ndarray类型。
对于'classification'情况,`y_pred` 在大多数情况下由范围 :math:`[0, 1]` 中的浮点数组成shape为 :math:`(N, C)` ,其中 :math:`N` 是样本数, :math:`C` 是类别数。
`y` 由整数值组成如果是one_hot编码格式shape是 :math:`(N,C)` 如果是类别索引shape是 :math:`(N,)`
对于'classification'情况,`y_pred` 在大多数情况下由范围 :math:`[0, 1]` 中的浮点数组成shape为 :math:`(N, C)` ,其中 :math:`N` 是样本数, :math:`C` 是类别数。`y` 由整数值组成如果是one_hot编码格式shape是 :math:`(N,C)` 如果是类别索引shape是 :math:`(N,)`
对于'multilabel'情况,`y_pred``y` 只能是值为0或1的one-hot编码格式其中值为1的索引表示正类别。`y_pred``y` 的shape都是 :math:`(N,C)`
对于'multilabel'情况,`y_pred``y` 只能是值为0或1的one-hot编码格式其中值为1的索引表示正类别。`y_pred``y` 的shape都是 :math:`(N,C)`
**异常:**
- **ValueError** - inputs数量不是2。
**ValueError** - inputs数量不是2。

View File

@ -31,11 +31,12 @@ mindspore.nn.SGD
**参数:**
- **params** (Union[list[Parameter], list[dict]]): 当 `params` 为会更新的 `Parameter` 列表时,`params` 中的元素必须为类 `Parameter`。当 `params``dict` 列表时,"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params"为可以解析的键。
.. include:: mindspore.nn.optim_group_param.rst
.. include:: mindspore.nn.optim_group_lr.rst
.. include:: mindspore.nn.optim_group_weight_decay.rst
.. include:: mindspore.nn.optim_group_gc.rst
.. include:: mindspore.nn.optim_group_order.rst
.. include:: mindspore.nn.optim_group_param.rst
.. include:: mindspore.nn.optim_group_lr.rst
.. include:: mindspore.nn.optim_group_weight_decay.rst
.. include:: mindspore.nn.optim_group_gc.rst
.. include:: mindspore.nn.optim_group_order.rst
- **learning_rate** (Union[float, Tensor, Iterable, LearningRateSchedule]): 默认值0.1。

View File

@ -3,8 +3,7 @@ mindspore.nn.Top1CategoricalAccuracy
.. py:class:: mindspore.nn.Top1CategoricalAccuracy
计算top-1分类正确率。此类是TopKCategoricalAccuracy的特殊类。
有关更多详细信息,请参阅:class:`TopKCategoricalAccuracy`
计算top-1分类正确率。此类是TopKCategoricalAccuracy的特殊类。有关更多详细信息请参阅 :class:`TopKCategoricalAccuracy`
**样例:**

View File

@ -3,8 +3,7 @@ mindspore.nn.Top5CategoricalAccuracy
.. py:class:: mindspore.nn.Top5CategoricalAccuracy
计算top-5分类正确率。此类是TopKCategoricalAccuracy的特殊类。
有关更多详细信息,请参阅:class:`TopKCategoricalAccuracy`
计算top-5分类正确率。此类是TopKCategoricalAccuracy的特殊类。有关更多详细信息请参阅 :class:`TopKCategoricalAccuracy`
**样例:**

View File

@ -106,7 +106,7 @@ mindspore.nn.TrainOneStepWithLossScaleCell
.. py:method:: set_sense_scale(sens)
如果使用了Tensor类型的`scale_sense`,可调用此函数修改它的值。
如果使用了Tensor类型的 `scale_sense` ,可调用此函数修改它的值。
**输入:**

View File

@ -30,8 +30,8 @@ mindspore.nn.WarmUpLR
**异常:**
- **- **TypeError**** `learning_rate` 不是float。
- **- **TypeError**** `warmup_steps` 不是int。
- **TypeError**** `learning_rate` 不是float。
- **TypeError**** `warmup_steps` 不是int。
- **ValueError** `warmup_steps` 小于1。
- **ValueError** `learning_rate` 小于或等于0。

View File

@ -5,7 +5,7 @@
所有神经网络的基类。
一个 `Cell` 可以是单一的神经网络单元,如 :class:`mindspore.nn.Conv2d`, :class:`mindspore.nn.ReLU, :class:`mindspore.nn.BatchNorm`等,也可以是组成网络的 `Cell` 的结合体。
一个 `Cell` 可以是单一的神经网络单元,如 :class:`mindspore.nn.Conv2d`, :class:`mindspore.nn.ReLU`, :class:`mindspore.nn.BatchNorm` 等,也可以是组成网络的 `Cell` 的结合体。
.. note::
一般情况下,自动微分 (AutoDiff) 算法会自动调用梯度函数,但是如果使用反向传播方法 (bprop method),梯度函数将会被反向传播方法代替。反向传播函数会接收一个包含损失对输出的梯度张量 `dout` 和一个包含前向传播结果的张量 `out` 。反向传播过程需要计算损失对输入的梯度,损失对参数变量的梯度目前暂不支持。反向传播函数必须包含自身参数。
@ -49,7 +49,7 @@
**flags** (dict) - Cell的配置信息目前用于绑定Cell和数据集。用户也通过该参数自定义Cell属性。默认值None。
.. py:method:: auto_parallel_compile_and_run()
.. py:method:: auto_parallel_compile_and_run()
是否在AUTO_PARALLELSEMI_AUTO_PARALLEL模式下执行编译流程。
@ -57,10 +57,10 @@
bool, `_auto_parallel_compile_and_run` 的值。
.. py:method:: bprop_debug
.. py:method:: bprop_debug
:property:
获取自定义反向传播调试功能是否已启用。
获取自定义反向传播调试功能是否已启用。
.. py:method:: cast_inputs(inputs, dst_type)
@ -276,7 +276,7 @@
.. py:method:: parameter_layout_dict
:property:
`parameter_layout_dict` 表示一个参数的张量layout这种张量layout是由分片策略和分布式算子信息推断出来的。
`parameter_layout_dict` 表示一个参数的张量layout这种张量layout是由分片策略和分布式算子信息推断出来的。
.. py:method:: parameters_and_names(name_prefix='', expand=True)

View File

@ -23,7 +23,7 @@ mindspore.nn.cosine_decay_lr
**返回:**
list[float]。列表大小为`total_step`
list[float]。列表大小为 `total_step`
**样例:**

View File

@ -23,7 +23,7 @@ mindspore.nn.exponential_decay_lr
**返回:**
list[float]。列表的大小为`total_step`
list[float]。列表的大小为 `total_step`
**样例:**

View File

@ -1 +1 @@
- **loss_scale** (float) - 梯度缩放系数必须大于0。如果 `loss_scale` 是整数,它将被转换为浮点数。通常使用默认值,仅当训练时使用了 `FixedLossScaleManager`,且 `FixedLossScaleManager ``drop_overflow_update` 属性配置为False时此值需要与 `FixedLossScaleManager` 中的 `loss_scale` 相同。有关更多详细信息请参阅class`mindspore.FixedLossScaleManager`。默认值1.0。
- **loss_scale** (float) - 梯度缩放系数必须大于0。如果 `loss_scale` 是整数,它将被转换为浮点数。通常使用默认值,仅当训练时使用了 `FixedLossScaleManager`,且 `FixedLossScaleManager` `drop_overflow_update` 属性配置为False时此值需要与 `FixedLossScaleManager` 中的 `loss_scale` 相同。有关更多详细信息,请参阅 :class`mindspore.FixedLossScaleManager`。默认值1.0。

View File

@ -1 +1 @@
优化器和混合精度之间通常没有联系。但是,当使用`FixedLossScaleManager``FixedLossScaleManager`中的`drop_overflow_update`设置为False时优化器需要设置'loss_scale'。由于此优化器没有`loss_scale`的参数,因此需要通过其他方式处理`loss_scale`,如何正确处理`loss_scale`详见`LossScale <https://www.mindspore.cn/docs/programming_guide/zh-CN/master/lossscale.html>`
优化器和混合精度之间通常没有联系。但是,当使用 `FixedLossScaleManager` 且 `FixedLossScaleManager` 中的 `drop_overflow_update` 设置为False时优化器需要设置'loss_scale'。由于此优化器没有 `loss_scale` 的参数,因此需要通过其他方式处理 `loss_scale` ,如何正确处理 `loss_scale` 详见 `LossScale <https://www.mindspore.cn/docs/programming_guide/zh-CN/master/lossscale.html>`_

View File

@ -8,31 +8,32 @@ mindspore.nn.rearrange_inputs
此装饰器目前用于 :class:`mindspore.nn.Metric` 类的 `update` 方法。
**样例:**
>>> class RearrangeInputsExample:
... def __init__(self):
... self._indexes = None
...
... @property
... def indexes(self):
... return getattr(self, '_indexes', None)
...
... def set_indexes(self, indexes):
... self._indexes = indexes
... return self
...
... @rearrange_inputs
... def update(self, *inputs):
... return inputs
>>>
>>> rearrange_inputs_example = RearrangeInputsExample().set_indexes([1, 0])
>>> outs = rearrange_inputs_example.update(5, 9)
>>> print(outs)
(9, 5)
>>> class RearrangeInputsExample:
... def __init__(self):
... self._indexes = None
...
... @property
... def indexes(self):
... return getattr(self, '_indexes', None)
...
... def set_indexes(self, indexes):
... self._indexes = indexes
... return self
...
... @rearrange_inputs
... def update(self, *inputs):
... return inputs
>>>
>>> rearrange_inputs_example = RearrangeInputsExample().set_indexes([1, 0])
>>> outs = rearrange_inputs_example.update(5, 9)
>>> print(outs)
(9, 5)
**参数:**
- **func** (Callable) - 要装饰的候选函数,其输入将被重新排列。
**func** (Callable) - 要装饰的候选函数,其输入将被重新排列。
**返回:**
**返回:**
Callable用于在函数之间调换输入。

View File

@ -17,7 +17,7 @@ mindspore.ops.OnesLike
**异常:**
- **TypeError** - - `input_x` 不是Tensor。
- **TypeError** - `input_x` 不是Tensor。
**支持平台:**

View File

@ -26,8 +26,8 @@ mindspore.ops.ReLUV2
**异常:**
- **TypeError** - - `input_x` 不是Tensor。
- **ValueError** - -`input_x` 的shape不是4-D。
- **TypeError** - `input_x` 不是Tensor。
- **ValueError** - `input_x` 的shape不是4-D。
**支持平台:**

View File

@ -20,9 +20,9 @@ mindspore.ops.UniformReal
**异常:**
- **TypeError** - - `seed``seed2` 都不是int。
- **TypeError** `shape` 不是tuple。
- **ValueError** - `shape` 不是常量值。
- **TypeError:** - `seed``seed2` 都不是int。
- **TypeError** - `shape` 不是tuple。
- **ValueError:** - `shape` 不是常量值。
**支持平台:**