forked from mindspore-Ecosystem/mindspore
update api format
This commit is contained in:
parent
c88da99f77
commit
999ce681a4
|
@ -110,9 +110,9 @@ mindspore.common.initializer
|
|||
.. math::
|
||||
boundary = gain * \sqrt{\frac{6}{n_{in} + n_{out}}}
|
||||
|
||||
- `gain` 是一个可选的缩放因子。
|
||||
- `n_{in}` 为权重Tensor中输入单元的数量。
|
||||
- `n_{out}` 为权重Tensor中输出单元的数量。
|
||||
- :math:`gain` 是一个可选的缩放因子。
|
||||
- :math:`n_{in}` 为权重Tensor中输入单元的数量。
|
||||
- :math:`n_{out}` 为权重Tensor中输出单元的数量。
|
||||
|
||||
有关 XavierUniform 算法的详细信息,请查看 http://proceedings.mlr.press/v9/glorot10a.html。
|
||||
|
||||
|
|
|
@ -57,9 +57,9 @@ mindspore.communication
|
|||
|
||||
**异常:**
|
||||
|
||||
**TypeError** – 在参数 `group` 不是字符串时抛出。
|
||||
**ValueError** – 在后台不可用时抛出。
|
||||
**RuntimeError** – 在‘HCCL’或‘NCCL’服务不可用时抛出。
|
||||
- **TypeError** – 在参数 `group` 不是字符串时抛出。
|
||||
- **ValueError** – 在后台不可用时抛出。
|
||||
- **RuntimeError** – 在‘HCCL’或‘NCCL’服务不可用时抛出。
|
||||
|
||||
.. py:class:: mindspore.communication.get_group_size(group=GlobalComm.WORLD_COMM_GROUP)
|
||||
|
||||
|
|
|
@ -5,23 +5,22 @@ mindspore.LossScaleManager
|
|||
|
||||
混合精度梯度放大系数(loss scale)管理器的抽象类。
|
||||
|
||||
派生类需要实现该类的所有方法。 `get_loss_scale` 用于获取当前的梯度放大系数。 `update_loss_scale` 用于更新梯度放大系数,该方法将在训练过程中被调用。 `get_update_cell` 用于获取更新梯度放大系数的 `Cell` 实例,该实例将在训练过程中被调用。当前多使用`get_update_cell` 方式。
|
||||
派生类需要实现该类的所有方法。 `get_loss_scale` 用于获取当前的梯度放大系数。 `update_loss_scale` 用于更新梯度放大系数,该方法将在训练过程中被调用。 `get_update_cell` 用于获取更新梯度放大系数的 `Cell` 实例,该实例将在训练过程中被调用。当前多使用 `get_update_cell` 方式。
|
||||
|
||||
例如::class:`mindspore.FixedLossScaleManager` 和 :class:`mindspore.DynamicLossScaleManager` 。
|
||||
|
||||
.. py:method:: get_loss_scale()
|
||||
|
||||
获取梯度放大系数(loss scale)的值。
|
||||
获取梯度放大系数(loss scale)的值。
|
||||
|
||||
.. py:method:: get_update_cell()
|
||||
|
||||
获取用于更新梯度放大系数的Cell实例。
|
||||
获取用于更新梯度放大系数的Cell实例。
|
||||
|
||||
.. py:method:: update_loss_scale(overflow)
|
||||
|
||||
根据 `overflow` 状态更新梯度放大系数(loss scale)。
|
||||
根据 `overflow` 状态更新梯度放大系数(loss scale)。
|
||||
|
||||
**参数:**
|
||||
**参数:**
|
||||
|
||||
**overflow** (bool) - 表示训练过程是否溢出。
|
||||
|
||||
**overflow** (bool) - 表示训练过程是否溢出。
|
|
@ -53,7 +53,7 @@ mindspore.dtype
|
|||
``type_type`` 类型的类型定义。
|
||||
``type_none`` 没有匹配的返回类型,对应 Python 中的 ``type(None)``。
|
||||
``symbolic_key`` 在 ``env_type`` 中用作变量的键的变量的值。
|
||||
``env_type`` 用于存储函数的自由变量的梯度,其中键是自由变量节点的``symbolic_key``,值是梯度。
|
||||
``env_type`` 用于存储函数的自由变量的梯度,其中键是自由变量节点的 `symbolic_key` ,值是梯度。
|
||||
============================ =================
|
||||
|
||||
- **树形拓扑**
|
||||
|
|
|
@ -12,7 +12,7 @@
|
|||
- **optimizer** (Cell) - 用于更新网络权重的优化器。如果 `optimizer` 为None, `network` 中需要进行反向传播和网络权重更新。默认值:None。
|
||||
- **metrics** (Union[dict, set]) - 用于模型评估的一组评价函数。例如:{'accuracy', 'recall'}。默认值:None。
|
||||
- **eval_network** (Cell) - 用于评估的神经网络。未定义情况下,`Model` 会使用 `network` 和 `loss_fn` 封装一个 `eval_network` 。默认值:None。
|
||||
- **eval_indexes** (list) - 在定义 `eval_network` 的情况下使用。如果 `eval_indexes` 为默认值None,`Model` 会将 `eval_network` 的所有输出传给 `metrics` 。如果配置 `eval_indexes` ,必须包含三个元素,分别为损失值、预测值和标签在`eval_network`输出中的位置,此时,损失值将传给损失评价函数,预测值和标签将传给其他评价函数。推荐使用评价函数的 `mindspore.nn.Metric.set_indexes` 代替 `eval_indexes` 。默认值:None。
|
||||
- **eval_indexes** (list) - 在定义 `eval_network` 的情况下使用。如果 `eval_indexes` 为默认值None,`Model` 会将 `eval_network` 的所有输出传给 `metrics` 。如果配置 `eval_indexes` ,必须包含三个元素,分别为损失值、预测值和标签在 `eval_network` 输出中的位置,此时,损失值将传给损失评价函数,预测值和标签将传给其他评价函数。推荐使用评价函数的 `mindspore.nn.Metric.set_indexes` 代替 `eval_indexes` 。默认值:None。
|
||||
- **amp_level** (str) - `mindspore.build_train_network` 的可选参数 `level`,`level` 为混合精度等级,该参数支持["O0", "O2", "O3", "auto"]。默认值:"O0"。
|
||||
|
||||
- O0: 无变化。
|
||||
|
|
|
@ -6,7 +6,8 @@ mindspore.nn.Adagrad
|
|||
使用ApplyAdagrad算子实现Adagrad算法。
|
||||
|
||||
Adagrad用于在线学习和随机优化。
|
||||
请参阅论文`Efficient Learning using Forward-Backward Splitting <https://proceedings.neurips.cc/paper/2009/file/621bf66ddb7c962aa0d22ac97d69b793-Paper.pdf>`_。
|
||||
请参阅论文 `Efficient Learning using Forward-Backward Splitting <https://proceedings.neurips.cc/paper/2009/file/621bf66ddb7c962aa0d22ac97d69b793-Paper.pdf>`_。
|
||||
|
||||
公式如下:
|
||||
|
||||
.. math::
|
||||
|
@ -33,6 +34,7 @@ mindspore.nn.Adagrad
|
|||
|
||||
- **accum** (float) - 累加器 :math:`h` 的初始值,必须大于等于零。默认值:0.1。
|
||||
- **learning_rate** (Union[float, Tensor, Iterable, LearningRateSchedule]) - 默认值:0.001。
|
||||
|
||||
.. include:: mindspore.nn.optim_arg_dynamic_lr.rst
|
||||
|
||||
- **update_slots** (bool) - 如果为True,则更新累加器 :math:`h` 。默认值:True。
|
||||
|
|
|
@ -5,7 +5,7 @@ mindspore.nn.Adam
|
|||
|
||||
通过Adaptive Moment Estimation (Adam)算法更新梯度。
|
||||
|
||||
请参阅论文`Adam: A Method for Stochastic Optimization <https://arxiv.org/abs/1412.6980>`_。
|
||||
请参阅论文 `Adam: A Method for Stochastic Optimization <https://arxiv.org/abs/1412.6980>`_。
|
||||
|
||||
公式如下:
|
||||
|
||||
|
@ -17,7 +17,7 @@ mindspore.nn.Adam
|
|||
w_{t+1} = w_{t} - l * \frac{m_{t+1}}{\sqrt{v_{t+1}} + \epsilon}
|
||||
\end{array}
|
||||
|
||||
:math:`m` 代表第一个动量矩阵 `moment1` ,:math:`v` 代表第二个动量矩阵 `moment2` ,:math:`g` 代表 `gradients` ,:math:`l` 代表缩放因子,:math:`\beta_1,\beta_2` 代表 `beta1` 和 `beta2` ,:math:`t` 代表当前step,:math:`beta_1^t` 和:math:`beta_2^t` 代表 `beta1_power` 和 `beta2_power` ,:math:`\alpha` 代表 `learning_rate` ,:math:`w` 代表 `params` ,:math:`\epsilon` 代表 `eps` 。
|
||||
:math:`m` 代表第一个动量矩阵 `moment1` ,:math:`v` 代表第二个动量矩阵 `moment2` ,:math:`g` 代表 `gradients` ,:math:`l` 代表缩放因子,:math:`\beta_1,\beta_2` 代表 `beta1` 和 `beta2` ,:math:`t` 代表当前step,:math:`beta_1^t` 和 :math:`beta_2^t` 代表 `beta1_power` 和 `beta2_power` ,:math:`\alpha` 代表 `learning_rate` ,:math:`w` 代表 `params` ,:math:`\epsilon` 代表 `eps` 。
|
||||
|
||||
.. note::
|
||||
.. include:: mindspore.nn.optim_note_sparse.rst
|
||||
|
|
|
@ -1,4 +1,4 @@
|
|||
Class mindspore.nn.F1
|
||||
mindspore.nn.F1
|
||||
=====================
|
||||
|
||||
.. py:class:: mindspore.nn.F1
|
||||
|
|
|
@ -1,6 +1,5 @@
|
|||
mindspore.nn. mindspore.nn.FTRL
|
||||
================================
|
||||
|
||||
mindspore.nn.FTRL
|
||||
=================
|
||||
.. py:class:: mindspore.nn.FTRL(*args, **kwargs)
|
||||
|
||||
使用ApplyFtrl算子实现FTRL算法。
|
||||
|
@ -24,7 +23,7 @@ mindspore.nn. mindspore.nn.FTRL
|
|||
\end{cases}\\
|
||||
\end{array}
|
||||
|
||||
:math:`m` 表示累加器,:math:`g` 表示 `grads`, :math:`t` 表示当前step,:math:`u` 表示需要更新的线性系数,:math:`p` 表示` lr_power`,:math:`\alpha` 表示 `learning_rate` ,:math:`\omega` 表示 `params` 。
|
||||
:math:`m` 表示累加器,:math:`g` 表示 `grads`, :math:`t` 表示当前step,:math:`u` 表示需要更新的线性系数,:math:`p` 表示 `lr_power`,:math:`\alpha` 表示 `learning_rate` ,:math:`\omega` 表示 `params` 。
|
||||
|
||||
.. note::
|
||||
.. include:: mindspore.nn.optim_note_sparse.rst
|
||||
|
|
|
@ -33,7 +33,7 @@ mindspore.nn.InverseDecayLR
|
|||
|
||||
**输出:**
|
||||
|
||||
Tensor。当前step的学习率值,shape为:math:`()`。
|
||||
Tensor。当前step的学习率值,shape为 :math:`()`。
|
||||
|
||||
**异常:**
|
||||
|
||||
|
|
|
@ -22,7 +22,7 @@ mindspore.nn.Lamb
|
|||
w_t = w_{t-1} -\eta_t \frac{\| w_{t-1} \|}{\| r_t + \lambda w_{t-1} \|} (r_t + \lambda w_{t-1})
|
||||
\end{gather*}
|
||||
|
||||
其中,math:`m` 代表第一个矩向量,:math:`v` 代表第二个矩向量,:math:`\eta` 表示学习率,:math:`\lambda` 表示LAMB权重衰减率。
|
||||
其中, :math:`m` 代表第一个矩向量,:math:`v` 代表第二个矩向量,:math:`\eta` 表示学习率,:math:`\lambda` 表示LAMB权重衰减率。
|
||||
|
||||
.. note::
|
||||
.. include:: mindspore.nn.optim_note_weight_decay.rst
|
||||
|
|
|
@ -42,7 +42,7 @@ mindspore.nn.LazyAdam
|
|||
.. include:: mindspore.nn.optim_arg_dynamic_lr.rst
|
||||
|
||||
- **beta1** (float):`moment1` 的指数衰减率。参数范围(0.0,1.0)。默认值:0.9。
|
||||
- **beta2** (float):moment2` 的指数衰减率。参数范围(0.0,1.0)。默认值:0.999。
|
||||
- **beta2** (float):`moment2` 的指数衰减率。参数范围(0.0,1.0)。默认值:0.999。
|
||||
- **eps** (float):将添加到分母中,以提高数值稳定性。必须大于0。默认值:1e-8。
|
||||
- **use_locking** (bool):是否对参数更新加锁保护。如果为True,则 `w` 、`m` 和 `v` 的Tensor更新将受到锁的保护。如果为False,则结果不可预测。默认值:False。
|
||||
- **use_nesterov** (bool):是否使用Nesterov Accelerated Gradient (NAG)算法更新梯度。如果为True,使用NAG更新梯度。如果为False,则在不使用NAG的情况下更新梯度。默认值:False。
|
||||
|
@ -65,7 +65,7 @@ mindspore.nn.LazyAdam
|
|||
- **TypeError**:`beta1`、`beta2`、`eps` 或 `loss_scale` 不是float。
|
||||
- **TypeError**:`weight_decay` 不是float或int。
|
||||
- **TypeError**:`use_locking` 或 `use_nesterov` 不是bool。
|
||||
- **ValueError**:`loss_scale `或 `eps` 小于或等于0。
|
||||
- **ValueError**:`loss_scale` 或 `eps` 小于或等于0。
|
||||
- **ValueError**:`beta1`、`beta2` 不在(0.0,1.0)范围内。
|
||||
- **ValueError**:`weight_decay` 小于0。
|
||||
|
||||
|
|
|
@ -31,16 +31,19 @@ mindspore.nn.Loss
|
|||
|
||||
Float,loss的平均值。
|
||||
|
||||
**异常:**
|
||||
RuntimeError:样本总数为0。
|
||||
**异常:**
|
||||
|
||||
RuntimeError:样本总数为0。
|
||||
|
||||
.. py:method:: update(*inputs)
|
||||
|
||||
更新内部评估结果。
|
||||
|
||||
**参数:**
|
||||
inputs:输入只包含一个元素,且该元素为loss。loss的维度必须为0或1。
|
||||
**参数:**
|
||||
|
||||
**异常:**
|
||||
ValueError:`inputs` 的长度不为1。
|
||||
ValueError:`inputs` 的维度不为0或1。
|
||||
inputs:输入只包含一个元素,且该元素为loss。loss的维度必须为0或1。
|
||||
|
||||
**异常:**
|
||||
|
||||
**ValueError**:`inputs` 的长度不为1。
|
||||
**ValueError**:`inputs` 的维度不为0或1。
|
||||
|
|
|
@ -20,7 +20,7 @@ mindspore.nn.Momentum
|
|||
.. math::
|
||||
p_{t+1} = p_{t} - lr \ast v_{t+1}
|
||||
|
||||
其中,:math:`grad` 、:math:`lr` 、:math:`p` 、:math:`v` 和:math:`u` 分别表示梯度、学习率、参数、矩(Moment)和动量(Momentum)。
|
||||
其中,:math:`grad` 、:math:`lr` 、:math:`p` 、:math:`v` 和 :math:`u` 分别表示梯度、学习率、参数、矩(Moment)和动量(Momentum)。
|
||||
|
||||
.. note::
|
||||
.. include:: mindspore.nn.optim_note_weight_decay.rst
|
||||
|
|
|
@ -39,7 +39,7 @@ mindspore.nn.polynomial_decay_lr
|
|||
|
||||
**异常:**
|
||||
|
||||
- **TypeError**:`learning_rate`,`end_learning_rate` 或 `power` 不是float。
|
||||
- **TypeError**:`learning_rate`, `end_learning_rate` 或 `power` 不是float。
|
||||
- **TypeError**:`decay_steps` 不是int或 `update_decay_steps` 不是bool。
|
||||
- **ValueError**:`end_learning_rate` 小于0或 `decay_steps` 小于1。
|
||||
- **ValueError**:`learning_rate` 或 `power` 小于或等于0。
|
||||
|
|
|
@ -10,14 +10,14 @@ mindspore.nn.Precision
|
|||
.. math::
|
||||
\text{precision} = \frac{\text{true_positive}}{\text{true_positive} + \text{false_positive}}
|
||||
|
||||
注:
|
||||
.. note::
|
||||
在多标签情况下, :math:`y` 和 :math:`y_{pred}` 的元素必须为0或1。
|
||||
|
||||
**参数:**
|
||||
**参数:**
|
||||
|
||||
- **eval_type** (str)- 支持'classification'和'multilabel'。默认值:'classification'。
|
||||
**eval_type** (str)- 支持'classification'和'multilabel'。默认值:'classification'。
|
||||
|
||||
**样例:**
|
||||
**样例:**
|
||||
|
||||
>>> import numpy as np
|
||||
>>> from mindspore import nn, Tensor
|
||||
|
@ -41,7 +41,7 @@ mindspore.nn.Precision
|
|||
|
||||
**参数:**
|
||||
|
||||
- **average** (bool) - 指定是否计算平均精度。默认值:False。
|
||||
**average** (bool) - 指定是否计算平均精度。默认值:False。
|
||||
|
||||
**返回:**
|
||||
|
||||
|
@ -53,13 +53,12 @@ mindspore.nn.Precision
|
|||
|
||||
**参数:**
|
||||
|
||||
- **inputs** 输入 `y_pred` 和 `y`。`y_pred` 和 `y` 支持Tensor、list或numpy.ndarray类型。
|
||||
**inputs** 输入 `y_pred` 和 `y`。`y_pred` 和 `y` 支持Tensor、list或numpy.ndarray类型。
|
||||
|
||||
对于'classification'情况,`y_pred` 在大多数情况下由范围 :math:`[0, 1]` 中的浮点数组成,shape为 :math:`(N, C)` ,其中 :math:`N` 是样本数, :math:`C` 是类别数。
|
||||
`y` 由整数值组成,如果是one_hot编码格式,shape是 :math:`(N,C)` ;如果是类别索引,shape是 :math:`(N,)` 。
|
||||
对于'classification'情况,`y_pred` 在大多数情况下由范围 :math:`[0, 1]` 中的浮点数组成,shape为 :math:`(N, C)` ,其中 :math:`N` 是样本数, :math:`C` 是类别数。`y` 由整数值组成,如果是one_hot编码格式,shape是 :math:`(N,C)` ;如果是类别索引,shape是 :math:`(N,)` 。
|
||||
|
||||
对于'multilabel'情况,`y_pred` 和 `y` 只能是值为0或1的one-hot编码格式,其中值为1的索引表示正类别。`y_pred` 和 `y` 的shape都是 :math:`(N,C)` 。
|
||||
对于'multilabel'情况,`y_pred` 和 `y` 只能是值为0或1的one-hot编码格式,其中值为1的索引表示正类别。`y_pred` 和 `y` 的shape都是 :math:`(N,C)` 。
|
||||
|
||||
**异常:**
|
||||
|
||||
- **ValueError** - inputs数量不是2。
|
||||
**ValueError** - inputs数量不是2。
|
||||
|
|
|
@ -34,7 +34,7 @@ mindspore.nn.ProximalAdagrad
|
|||
.. include:: mindspore.nn.optim_group_gc.rst
|
||||
.. include:: mindspore.nn.optim_group_order.rst
|
||||
|
||||
- **accum** (float):累加器`accum`的初始值,起始值必须为零或正值。默认值:0.1。
|
||||
- **accum** (float):累加器 `accum` 的初始值,起始值必须为零或正值。默认值:0.1。
|
||||
|
||||
- **learning_rate** (Union[float, Tensor, Iterable, LearningRateSchedule]): 默认值:1e-3。
|
||||
|
||||
|
|
|
@ -10,14 +10,14 @@ mindspore.nn.Recall
|
|||
.. math::
|
||||
\text{recall} = \frac{\text{true_positive}}{\text{true_positive} + \text{false_negative}}
|
||||
|
||||
注:
|
||||
.. note::
|
||||
在多标签情况下, :math:`y` 和 :math:`y_{pred}` 的元素必须为0或1。
|
||||
|
||||
**参数:**
|
||||
**参数:**
|
||||
|
||||
- **eval_type** (str)- 支持'classification'和'multilabel'。默认值:'classification'。
|
||||
**eval_type** (str)- 支持'classification'和'multilabel'。默认值:'classification'。
|
||||
|
||||
**样例:**
|
||||
**样例:**
|
||||
|
||||
>>> import numpy as np
|
||||
>>> from mindspore import nn, Tensor
|
||||
|
@ -41,7 +41,7 @@ mindspore.nn.Recall
|
|||
|
||||
**参数:**
|
||||
|
||||
- **average** (bool) - 指定是否计算平均召回率。默认值:False。
|
||||
**average** (bool) - 指定是否计算平均召回率。默认值:False。
|
||||
|
||||
**返回:**
|
||||
|
||||
|
@ -53,13 +53,12 @@ mindspore.nn.Recall
|
|||
|
||||
**参数:**
|
||||
|
||||
- **inputs** - 输入 `y_pred` 和 `y`。`y_pred` 和 `y` 支持Tensor、list或numpy.ndarray类型。
|
||||
**inputs** - 输入 `y_pred` 和 `y`。`y_pred` 和 `y` 支持Tensor、list或numpy.ndarray类型。
|
||||
|
||||
对于'classification'情况,`y_pred` 在大多数情况下由范围 :math:`[0, 1]` 中的浮点数组成,shape为 :math:`(N, C)` ,其中 :math:`N` 是样本数, :math:`C` 是类别数。
|
||||
`y` 由整数值组成,如果是one_hot编码格式,shape是 :math:`(N,C)` ;如果是类别索引,shape是 :math:`(N,)` 。
|
||||
对于'classification'情况,`y_pred` 在大多数情况下由范围 :math:`[0, 1]` 中的浮点数组成,shape为 :math:`(N, C)` ,其中 :math:`N` 是样本数, :math:`C` 是类别数。`y` 由整数值组成,如果是one_hot编码格式,shape是 :math:`(N,C)` ;如果是类别索引,shape是 :math:`(N,)` 。
|
||||
|
||||
对于'multilabel'情况,`y_pred` 和 `y` 只能是值为0或1的one-hot编码格式,其中值为1的索引表示正类别。`y_pred` 和 `y` 的shape都是 :math:`(N,C)` 。
|
||||
对于'multilabel'情况,`y_pred` 和 `y` 只能是值为0或1的one-hot编码格式,其中值为1的索引表示正类别。`y_pred` 和 `y` 的shape都是 :math:`(N,C)` 。
|
||||
|
||||
**异常:**
|
||||
|
||||
- **ValueError** - inputs数量不是2。
|
||||
**ValueError** - inputs数量不是2。
|
||||
|
|
|
@ -31,11 +31,12 @@ mindspore.nn.SGD
|
|||
**参数:**
|
||||
|
||||
- **params** (Union[list[Parameter], list[dict]]): 当 `params` 为会更新的 `Parameter` 列表时,`params` 中的元素必须为类 `Parameter`。当 `params` 为 `dict` 列表时,"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params"为可以解析的键。
|
||||
.. include:: mindspore.nn.optim_group_param.rst
|
||||
.. include:: mindspore.nn.optim_group_lr.rst
|
||||
.. include:: mindspore.nn.optim_group_weight_decay.rst
|
||||
.. include:: mindspore.nn.optim_group_gc.rst
|
||||
.. include:: mindspore.nn.optim_group_order.rst
|
||||
|
||||
.. include:: mindspore.nn.optim_group_param.rst
|
||||
.. include:: mindspore.nn.optim_group_lr.rst
|
||||
.. include:: mindspore.nn.optim_group_weight_decay.rst
|
||||
.. include:: mindspore.nn.optim_group_gc.rst
|
||||
.. include:: mindspore.nn.optim_group_order.rst
|
||||
|
||||
- **learning_rate** (Union[float, Tensor, Iterable, LearningRateSchedule]): 默认值:0.1。
|
||||
|
||||
|
|
|
@ -3,8 +3,7 @@ mindspore.nn.Top1CategoricalAccuracy
|
|||
|
||||
.. py:class:: mindspore.nn.Top1CategoricalAccuracy
|
||||
|
||||
计算top-1分类正确率。此类是TopKCategoricalAccuracy的特殊类。
|
||||
有关更多详细信息,请参阅:class:`TopKCategoricalAccuracy`。
|
||||
计算top-1分类正确率。此类是TopKCategoricalAccuracy的特殊类。有关更多详细信息,请参阅 :class:`TopKCategoricalAccuracy`。
|
||||
|
||||
**样例:**
|
||||
|
||||
|
|
|
@ -3,8 +3,7 @@ mindspore.nn.Top5CategoricalAccuracy
|
|||
|
||||
.. py:class:: mindspore.nn.Top5CategoricalAccuracy
|
||||
|
||||
计算top-5分类正确率。此类是TopKCategoricalAccuracy的特殊类。
|
||||
有关更多详细信息,请参阅:class:`TopKCategoricalAccuracy`。
|
||||
计算top-5分类正确率。此类是TopKCategoricalAccuracy的特殊类。有关更多详细信息,请参阅 :class:`TopKCategoricalAccuracy`。
|
||||
|
||||
**样例:**
|
||||
|
||||
|
|
|
@ -106,7 +106,7 @@ mindspore.nn.TrainOneStepWithLossScaleCell
|
|||
|
||||
.. py:method:: set_sense_scale(sens)
|
||||
|
||||
如果使用了Tensor类型的`scale_sense`,可调用此函数修改它的值。
|
||||
如果使用了Tensor类型的 `scale_sense` ,可调用此函数修改它的值。
|
||||
|
||||
**输入:**
|
||||
|
||||
|
|
|
@ -30,8 +30,8 @@ mindspore.nn.WarmUpLR
|
|||
|
||||
**异常:**
|
||||
|
||||
- **- **TypeError**:** `learning_rate` 不是float。
|
||||
- **- **TypeError**:** `warmup_steps` 不是int。
|
||||
- **TypeError**:** `learning_rate` 不是float。
|
||||
- **TypeError**:** `warmup_steps` 不是int。
|
||||
- **ValueError:** `warmup_steps` 小于1。
|
||||
- **ValueError:** `learning_rate` 小于或等于0。
|
||||
|
||||
|
|
|
@ -5,7 +5,7 @@
|
|||
|
||||
所有神经网络的基类。
|
||||
|
||||
一个 `Cell` 可以是单一的神经网络单元,如 :class:`mindspore.nn.Conv2d`, :class:`mindspore.nn.ReLU, :class:`mindspore.nn.BatchNorm`等,也可以是组成网络的 `Cell` 的结合体。
|
||||
一个 `Cell` 可以是单一的神经网络单元,如 :class:`mindspore.nn.Conv2d`, :class:`mindspore.nn.ReLU`, :class:`mindspore.nn.BatchNorm` 等,也可以是组成网络的 `Cell` 的结合体。
|
||||
|
||||
.. note::
|
||||
一般情况下,自动微分 (AutoDiff) 算法会自动调用梯度函数,但是如果使用反向传播方法 (bprop method),梯度函数将会被反向传播方法代替。反向传播函数会接收一个包含损失对输出的梯度张量 `dout` 和一个包含前向传播结果的张量 `out` 。反向传播过程需要计算损失对输入的梯度,损失对参数变量的梯度目前暂不支持。反向传播函数必须包含自身参数。
|
||||
|
@ -49,7 +49,7 @@
|
|||
|
||||
**flags** (dict) - Cell的配置信息,目前用于绑定Cell和数据集。用户也通过该参数自定义Cell属性。默认值:None。
|
||||
|
||||
.. py:method:: auto_parallel_compile_and_run()
|
||||
.. py:method:: auto_parallel_compile_and_run()
|
||||
|
||||
是否在‘AUTO_PARALLEL’或‘SEMI_AUTO_PARALLEL’模式下执行编译流程。
|
||||
|
||||
|
@ -57,10 +57,10 @@
|
|||
|
||||
bool, `_auto_parallel_compile_and_run` 的值。
|
||||
|
||||
.. py:method:: bprop_debug
|
||||
.. py:method:: bprop_debug
|
||||
:property:
|
||||
|
||||
获取自定义反向传播调试功能是否已启用。
|
||||
获取自定义反向传播调试功能是否已启用。
|
||||
|
||||
.. py:method:: cast_inputs(inputs, dst_type)
|
||||
|
||||
|
@ -276,7 +276,7 @@
|
|||
.. py:method:: parameter_layout_dict
|
||||
:property:
|
||||
|
||||
`parameter_layout_dict` 表示一个参数的张量layout,这种张量layout是由分片策略和分布式算子信息推断出来的。
|
||||
`parameter_layout_dict` 表示一个参数的张量layout,这种张量layout是由分片策略和分布式算子信息推断出来的。
|
||||
|
||||
.. py:method:: parameters_and_names(name_prefix='', expand=True)
|
||||
|
||||
|
|
|
@ -23,7 +23,7 @@ mindspore.nn.cosine_decay_lr
|
|||
|
||||
**返回:**
|
||||
|
||||
list[float]。列表大小为`total_step`。
|
||||
list[float]。列表大小为 `total_step`。
|
||||
|
||||
**样例:**
|
||||
|
||||
|
|
|
@ -23,7 +23,7 @@ mindspore.nn.exponential_decay_lr
|
|||
|
||||
**返回:**
|
||||
|
||||
list[float]。列表的大小为`total_step`。
|
||||
list[float]。列表的大小为 `total_step`。
|
||||
|
||||
**样例:**
|
||||
|
||||
|
|
|
@ -1 +1 @@
|
|||
- **loss_scale** (float) - 梯度缩放系数,必须大于0。如果 `loss_scale` 是整数,它将被转换为浮点数。通常使用默认值,仅当训练时使用了 `FixedLossScaleManager`,且 `FixedLossScaleManager `的 `drop_overflow_update` 属性配置为False时,此值需要与 `FixedLossScaleManager` 中的 `loss_scale` 相同。有关更多详细信息,请参阅class:`mindspore.FixedLossScaleManager`。默认值:1.0。
|
||||
- **loss_scale** (float) - 梯度缩放系数,必须大于0。如果 `loss_scale` 是整数,它将被转换为浮点数。通常使用默认值,仅当训练时使用了 `FixedLossScaleManager`,且 `FixedLossScaleManager` 的 `drop_overflow_update` 属性配置为False时,此值需要与 `FixedLossScaleManager` 中的 `loss_scale` 相同。有关更多详细信息,请参阅 :class:`mindspore.FixedLossScaleManager`。默认值:1.0。
|
||||
|
|
|
@ -1 +1 @@
|
|||
优化器和混合精度之间通常没有联系。但是,当使用`FixedLossScaleManager`且`FixedLossScaleManager`中的`drop_overflow_update`设置为False时,优化器需要设置'loss_scale'。由于此优化器没有`loss_scale`的参数,因此需要通过其他方式处理`loss_scale`,如何正确处理`loss_scale`详见`LossScale <https://www.mindspore.cn/docs/programming_guide/zh-CN/master/lossscale.html>`。
|
||||
优化器和混合精度之间通常没有联系。但是,当使用 `FixedLossScaleManager` 且 `FixedLossScaleManager` 中的 `drop_overflow_update` 设置为False时,优化器需要设置'loss_scale'。由于此优化器没有 `loss_scale` 的参数,因此需要通过其他方式处理 `loss_scale` ,如何正确处理 `loss_scale` 详见 `LossScale <https://www.mindspore.cn/docs/programming_guide/zh-CN/master/lossscale.html>`_。
|
||||
|
|
|
@ -8,31 +8,32 @@ mindspore.nn.rearrange_inputs
|
|||
此装饰器目前用于 :class:`mindspore.nn.Metric` 类的 `update` 方法。
|
||||
|
||||
**样例:**
|
||||
>>> class RearrangeInputsExample:
|
||||
... def __init__(self):
|
||||
... self._indexes = None
|
||||
...
|
||||
... @property
|
||||
... def indexes(self):
|
||||
... return getattr(self, '_indexes', None)
|
||||
...
|
||||
... def set_indexes(self, indexes):
|
||||
... self._indexes = indexes
|
||||
... return self
|
||||
...
|
||||
... @rearrange_inputs
|
||||
... def update(self, *inputs):
|
||||
... return inputs
|
||||
>>>
|
||||
>>> rearrange_inputs_example = RearrangeInputsExample().set_indexes([1, 0])
|
||||
>>> outs = rearrange_inputs_example.update(5, 9)
|
||||
>>> print(outs)
|
||||
(9, 5)
|
||||
|
||||
>>> class RearrangeInputsExample:
|
||||
... def __init__(self):
|
||||
... self._indexes = None
|
||||
...
|
||||
... @property
|
||||
... def indexes(self):
|
||||
... return getattr(self, '_indexes', None)
|
||||
...
|
||||
... def set_indexes(self, indexes):
|
||||
... self._indexes = indexes
|
||||
... return self
|
||||
...
|
||||
... @rearrange_inputs
|
||||
... def update(self, *inputs):
|
||||
... return inputs
|
||||
>>>
|
||||
>>> rearrange_inputs_example = RearrangeInputsExample().set_indexes([1, 0])
|
||||
>>> outs = rearrange_inputs_example.update(5, 9)
|
||||
>>> print(outs)
|
||||
(9, 5)
|
||||
|
||||
**参数:**
|
||||
|
||||
- **func** (Callable) - 要装饰的候选函数,其输入将被重新排列。
|
||||
**func** (Callable) - 要装饰的候选函数,其输入将被重新排列。
|
||||
|
||||
**返回:**
|
||||
**返回:**
|
||||
|
||||
Callable,用于在函数之间调换输入。
|
||||
|
|
|
@ -17,7 +17,7 @@ mindspore.ops.OnesLike
|
|||
|
||||
**异常:**
|
||||
|
||||
- **TypeError** - - `input_x` 不是Tensor。
|
||||
- **TypeError** - `input_x` 不是Tensor。
|
||||
|
||||
**支持平台:**
|
||||
|
||||
|
|
|
@ -26,8 +26,8 @@ mindspore.ops.ReLUV2
|
|||
|
||||
**异常:**
|
||||
|
||||
- **TypeError** - - `input_x` 不是Tensor。
|
||||
- **ValueError** - -`input_x` 的shape不是4-D。
|
||||
- **TypeError** - `input_x` 不是Tensor。
|
||||
- **ValueError** - `input_x` 的shape不是4-D。
|
||||
|
||||
**支持平台:**
|
||||
|
||||
|
|
|
@ -20,9 +20,9 @@ mindspore.ops.UniformReal
|
|||
|
||||
**异常:**
|
||||
|
||||
- **TypeError** - - `seed` 和 `seed2` 都不是int。
|
||||
- **TypeError:** `shape` 不是tuple。
|
||||
- **ValueError** - `shape` 不是常量值。
|
||||
- **TypeError:** - `seed` 和 `seed2` 都不是int。
|
||||
- **TypeError:** - `shape` 不是tuple。
|
||||
- **ValueError:** - `shape` 不是常量值。
|
||||
|
||||
**支持平台:**
|
||||
|
||||
|
|
Loading…
Reference in New Issue