forked from mindspore-Ecosystem/mindspore
update api format
This commit is contained in:
parent
c88da99f77
commit
999ce681a4
|
@ -110,9 +110,9 @@ mindspore.common.initializer
|
|||
.. math::
|
||||
boundary = gain * \sqrt{\frac{6}{n_{in} + n_{out}}}
|
||||
|
||||
- `gain` 是一个可选的缩放因子。
|
||||
- `n_{in}` 为权重Tensor中输入单元的数量。
|
||||
- `n_{out}` 为权重Tensor中输出单元的数量。
|
||||
- :math:`gain` 是一个可选的缩放因子。
|
||||
- :math:`n_{in}` 为权重Tensor中输入单元的数量。
|
||||
- :math:`n_{out}` 为权重Tensor中输出单元的数量。
|
||||
|
||||
有关 XavierUniform 算法的详细信息,请查看 http://proceedings.mlr.press/v9/glorot10a.html。
|
||||
|
||||
|
|
|
@ -57,9 +57,9 @@ mindspore.communication
|
|||
|
||||
**异常:**
|
||||
|
||||
**TypeError** – 在参数 `group` 不是字符串时抛出。
|
||||
**ValueError** – 在后台不可用时抛出。
|
||||
**RuntimeError** – 在‘HCCL’或‘NCCL’服务不可用时抛出。
|
||||
- **TypeError** – 在参数 `group` 不是字符串时抛出。
|
||||
- **ValueError** – 在后台不可用时抛出。
|
||||
- **RuntimeError** – 在‘HCCL’或‘NCCL’服务不可用时抛出。
|
||||
|
||||
.. py:class:: mindspore.communication.get_group_size(group=GlobalComm.WORLD_COMM_GROUP)
|
||||
|
||||
|
|
|
@ -24,4 +24,3 @@ mindspore.LossScaleManager
|
|||
**参数:**
|
||||
|
||||
**overflow** (bool) - 表示训练过程是否溢出。
|
||||
|
|
@ -53,7 +53,7 @@ mindspore.dtype
|
|||
``type_type`` 类型的类型定义。
|
||||
``type_none`` 没有匹配的返回类型,对应 Python 中的 ``type(None)``。
|
||||
``symbolic_key`` 在 ``env_type`` 中用作变量的键的变量的值。
|
||||
``env_type`` 用于存储函数的自由变量的梯度,其中键是自由变量节点的``symbolic_key``,值是梯度。
|
||||
``env_type`` 用于存储函数的自由变量的梯度,其中键是自由变量节点的 `symbolic_key` ,值是梯度。
|
||||
============================ =================
|
||||
|
||||
- **树形拓扑**
|
||||
|
|
|
@ -7,6 +7,7 @@ mindspore.nn.Adagrad
|
|||
|
||||
Adagrad用于在线学习和随机优化。
|
||||
请参阅论文 `Efficient Learning using Forward-Backward Splitting <https://proceedings.neurips.cc/paper/2009/file/621bf66ddb7c962aa0d22ac97d69b793-Paper.pdf>`_。
|
||||
|
||||
公式如下:
|
||||
|
||||
.. math::
|
||||
|
@ -33,6 +34,7 @@ mindspore.nn.Adagrad
|
|||
|
||||
- **accum** (float) - 累加器 :math:`h` 的初始值,必须大于等于零。默认值:0.1。
|
||||
- **learning_rate** (Union[float, Tensor, Iterable, LearningRateSchedule]) - 默认值:0.001。
|
||||
|
||||
.. include:: mindspore.nn.optim_arg_dynamic_lr.rst
|
||||
|
||||
- **update_slots** (bool) - 如果为True,则更新累加器 :math:`h` 。默认值:True。
|
||||
|
|
|
@ -1,4 +1,4 @@
|
|||
Class mindspore.nn.F1
|
||||
mindspore.nn.F1
|
||||
=====================
|
||||
|
||||
.. py:class:: mindspore.nn.F1
|
||||
|
|
|
@ -1,6 +1,5 @@
|
|||
mindspore.nn. mindspore.nn.FTRL
|
||||
================================
|
||||
|
||||
mindspore.nn.FTRL
|
||||
=================
|
||||
.. py:class:: mindspore.nn.FTRL(*args, **kwargs)
|
||||
|
||||
使用ApplyFtrl算子实现FTRL算法。
|
||||
|
|
|
@ -22,7 +22,7 @@ mindspore.nn.Lamb
|
|||
w_t = w_{t-1} -\eta_t \frac{\| w_{t-1} \|}{\| r_t + \lambda w_{t-1} \|} (r_t + \lambda w_{t-1})
|
||||
\end{gather*}
|
||||
|
||||
其中,math:`m` 代表第一个矩向量,:math:`v` 代表第二个矩向量,:math:`\eta` 表示学习率,:math:`\lambda` 表示LAMB权重衰减率。
|
||||
其中, :math:`m` 代表第一个矩向量,:math:`v` 代表第二个矩向量,:math:`\eta` 表示学习率,:math:`\lambda` 表示LAMB权重衰减率。
|
||||
|
||||
.. note::
|
||||
.. include:: mindspore.nn.optim_note_weight_decay.rst
|
||||
|
|
|
@ -42,7 +42,7 @@ mindspore.nn.LazyAdam
|
|||
.. include:: mindspore.nn.optim_arg_dynamic_lr.rst
|
||||
|
||||
- **beta1** (float):`moment1` 的指数衰减率。参数范围(0.0,1.0)。默认值:0.9。
|
||||
- **beta2** (float):moment2` 的指数衰减率。参数范围(0.0,1.0)。默认值:0.999。
|
||||
- **beta2** (float):`moment2` 的指数衰减率。参数范围(0.0,1.0)。默认值:0.999。
|
||||
- **eps** (float):将添加到分母中,以提高数值稳定性。必须大于0。默认值:1e-8。
|
||||
- **use_locking** (bool):是否对参数更新加锁保护。如果为True,则 `w` 、`m` 和 `v` 的Tensor更新将受到锁的保护。如果为False,则结果不可预测。默认值:False。
|
||||
- **use_nesterov** (bool):是否使用Nesterov Accelerated Gradient (NAG)算法更新梯度。如果为True,使用NAG更新梯度。如果为False,则在不使用NAG的情况下更新梯度。默认值:False。
|
||||
|
|
|
@ -32,6 +32,7 @@ mindspore.nn.Loss
|
|||
Float,loss的平均值。
|
||||
|
||||
**异常:**
|
||||
|
||||
RuntimeError:样本总数为0。
|
||||
|
||||
.. py:method:: update(*inputs)
|
||||
|
@ -39,8 +40,10 @@ mindspore.nn.Loss
|
|||
更新内部评估结果。
|
||||
|
||||
**参数:**
|
||||
|
||||
inputs:输入只包含一个元素,且该元素为loss。loss的维度必须为0或1。
|
||||
|
||||
**异常:**
|
||||
ValueError:`inputs` 的长度不为1。
|
||||
ValueError:`inputs` 的维度不为0或1。
|
||||
|
||||
**ValueError**:`inputs` 的长度不为1。
|
||||
**ValueError**:`inputs` 的维度不为0或1。
|
||||
|
|
|
@ -10,12 +10,12 @@ mindspore.nn.Precision
|
|||
.. math::
|
||||
\text{precision} = \frac{\text{true_positive}}{\text{true_positive} + \text{false_positive}}
|
||||
|
||||
注:
|
||||
.. note::
|
||||
在多标签情况下, :math:`y` 和 :math:`y_{pred}` 的元素必须为0或1。
|
||||
|
||||
**参数:**
|
||||
|
||||
- **eval_type** (str)- 支持'classification'和'multilabel'。默认值:'classification'。
|
||||
**eval_type** (str)- 支持'classification'和'multilabel'。默认值:'classification'。
|
||||
|
||||
**样例:**
|
||||
|
||||
|
@ -41,7 +41,7 @@ mindspore.nn.Precision
|
|||
|
||||
**参数:**
|
||||
|
||||
- **average** (bool) - 指定是否计算平均精度。默认值:False。
|
||||
**average** (bool) - 指定是否计算平均精度。默认值:False。
|
||||
|
||||
**返回:**
|
||||
|
||||
|
@ -53,13 +53,12 @@ mindspore.nn.Precision
|
|||
|
||||
**参数:**
|
||||
|
||||
- **inputs** 输入 `y_pred` 和 `y`。`y_pred` 和 `y` 支持Tensor、list或numpy.ndarray类型。
|
||||
**inputs** 输入 `y_pred` 和 `y`。`y_pred` 和 `y` 支持Tensor、list或numpy.ndarray类型。
|
||||
|
||||
对于'classification'情况,`y_pred` 在大多数情况下由范围 :math:`[0, 1]` 中的浮点数组成,shape为 :math:`(N, C)` ,其中 :math:`N` 是样本数, :math:`C` 是类别数。
|
||||
`y` 由整数值组成,如果是one_hot编码格式,shape是 :math:`(N,C)` ;如果是类别索引,shape是 :math:`(N,)` 。
|
||||
对于'classification'情况,`y_pred` 在大多数情况下由范围 :math:`[0, 1]` 中的浮点数组成,shape为 :math:`(N, C)` ,其中 :math:`N` 是样本数, :math:`C` 是类别数。`y` 由整数值组成,如果是one_hot编码格式,shape是 :math:`(N,C)` ;如果是类别索引,shape是 :math:`(N,)` 。
|
||||
|
||||
对于'multilabel'情况,`y_pred` 和 `y` 只能是值为0或1的one-hot编码格式,其中值为1的索引表示正类别。`y_pred` 和 `y` 的shape都是 :math:`(N,C)` 。
|
||||
|
||||
**异常:**
|
||||
|
||||
- **ValueError** - inputs数量不是2。
|
||||
**ValueError** - inputs数量不是2。
|
||||
|
|
|
@ -10,12 +10,12 @@ mindspore.nn.Recall
|
|||
.. math::
|
||||
\text{recall} = \frac{\text{true_positive}}{\text{true_positive} + \text{false_negative}}
|
||||
|
||||
注:
|
||||
.. note::
|
||||
在多标签情况下, :math:`y` 和 :math:`y_{pred}` 的元素必须为0或1。
|
||||
|
||||
**参数:**
|
||||
|
||||
- **eval_type** (str)- 支持'classification'和'multilabel'。默认值:'classification'。
|
||||
**eval_type** (str)- 支持'classification'和'multilabel'。默认值:'classification'。
|
||||
|
||||
**样例:**
|
||||
|
||||
|
@ -41,7 +41,7 @@ mindspore.nn.Recall
|
|||
|
||||
**参数:**
|
||||
|
||||
- **average** (bool) - 指定是否计算平均召回率。默认值:False。
|
||||
**average** (bool) - 指定是否计算平均召回率。默认值:False。
|
||||
|
||||
**返回:**
|
||||
|
||||
|
@ -53,13 +53,12 @@ mindspore.nn.Recall
|
|||
|
||||
**参数:**
|
||||
|
||||
- **inputs** - 输入 `y_pred` 和 `y`。`y_pred` 和 `y` 支持Tensor、list或numpy.ndarray类型。
|
||||
**inputs** - 输入 `y_pred` 和 `y`。`y_pred` 和 `y` 支持Tensor、list或numpy.ndarray类型。
|
||||
|
||||
对于'classification'情况,`y_pred` 在大多数情况下由范围 :math:`[0, 1]` 中的浮点数组成,shape为 :math:`(N, C)` ,其中 :math:`N` 是样本数, :math:`C` 是类别数。
|
||||
`y` 由整数值组成,如果是one_hot编码格式,shape是 :math:`(N,C)` ;如果是类别索引,shape是 :math:`(N,)` 。
|
||||
对于'classification'情况,`y_pred` 在大多数情况下由范围 :math:`[0, 1]` 中的浮点数组成,shape为 :math:`(N, C)` ,其中 :math:`N` 是样本数, :math:`C` 是类别数。`y` 由整数值组成,如果是one_hot编码格式,shape是 :math:`(N,C)` ;如果是类别索引,shape是 :math:`(N,)` 。
|
||||
|
||||
对于'multilabel'情况,`y_pred` 和 `y` 只能是值为0或1的one-hot编码格式,其中值为1的索引表示正类别。`y_pred` 和 `y` 的shape都是 :math:`(N,C)` 。
|
||||
|
||||
**异常:**
|
||||
|
||||
- **ValueError** - inputs数量不是2。
|
||||
**ValueError** - inputs数量不是2。
|
||||
|
|
|
@ -31,6 +31,7 @@ mindspore.nn.SGD
|
|||
**参数:**
|
||||
|
||||
- **params** (Union[list[Parameter], list[dict]]): 当 `params` 为会更新的 `Parameter` 列表时,`params` 中的元素必须为类 `Parameter`。当 `params` 为 `dict` 列表时,"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params"为可以解析的键。
|
||||
|
||||
.. include:: mindspore.nn.optim_group_param.rst
|
||||
.. include:: mindspore.nn.optim_group_lr.rst
|
||||
.. include:: mindspore.nn.optim_group_weight_decay.rst
|
||||
|
|
|
@ -3,8 +3,7 @@ mindspore.nn.Top1CategoricalAccuracy
|
|||
|
||||
.. py:class:: mindspore.nn.Top1CategoricalAccuracy
|
||||
|
||||
计算top-1分类正确率。此类是TopKCategoricalAccuracy的特殊类。
|
||||
有关更多详细信息,请参阅:class:`TopKCategoricalAccuracy`。
|
||||
计算top-1分类正确率。此类是TopKCategoricalAccuracy的特殊类。有关更多详细信息,请参阅 :class:`TopKCategoricalAccuracy`。
|
||||
|
||||
**样例:**
|
||||
|
||||
|
|
|
@ -3,8 +3,7 @@ mindspore.nn.Top5CategoricalAccuracy
|
|||
|
||||
.. py:class:: mindspore.nn.Top5CategoricalAccuracy
|
||||
|
||||
计算top-5分类正确率。此类是TopKCategoricalAccuracy的特殊类。
|
||||
有关更多详细信息,请参阅:class:`TopKCategoricalAccuracy`。
|
||||
计算top-5分类正确率。此类是TopKCategoricalAccuracy的特殊类。有关更多详细信息,请参阅 :class:`TopKCategoricalAccuracy`。
|
||||
|
||||
**样例:**
|
||||
|
||||
|
|
|
@ -30,8 +30,8 @@ mindspore.nn.WarmUpLR
|
|||
|
||||
**异常:**
|
||||
|
||||
- **- **TypeError**:** `learning_rate` 不是float。
|
||||
- **- **TypeError**:** `warmup_steps` 不是int。
|
||||
- **TypeError**:** `learning_rate` 不是float。
|
||||
- **TypeError**:** `warmup_steps` 不是int。
|
||||
- **ValueError:** `warmup_steps` 小于1。
|
||||
- **ValueError:** `learning_rate` 小于或等于0。
|
||||
|
||||
|
|
|
@ -5,7 +5,7 @@
|
|||
|
||||
所有神经网络的基类。
|
||||
|
||||
一个 `Cell` 可以是单一的神经网络单元,如 :class:`mindspore.nn.Conv2d`, :class:`mindspore.nn.ReLU, :class:`mindspore.nn.BatchNorm`等,也可以是组成网络的 `Cell` 的结合体。
|
||||
一个 `Cell` 可以是单一的神经网络单元,如 :class:`mindspore.nn.Conv2d`, :class:`mindspore.nn.ReLU`, :class:`mindspore.nn.BatchNorm` 等,也可以是组成网络的 `Cell` 的结合体。
|
||||
|
||||
.. note::
|
||||
一般情况下,自动微分 (AutoDiff) 算法会自动调用梯度函数,但是如果使用反向传播方法 (bprop method),梯度函数将会被反向传播方法代替。反向传播函数会接收一个包含损失对输出的梯度张量 `dout` 和一个包含前向传播结果的张量 `out` 。反向传播过程需要计算损失对输入的梯度,损失对参数变量的梯度目前暂不支持。反向传播函数必须包含自身参数。
|
||||
|
|
|
@ -1 +1 @@
|
|||
- **loss_scale** (float) - 梯度缩放系数,必须大于0。如果 `loss_scale` 是整数,它将被转换为浮点数。通常使用默认值,仅当训练时使用了 `FixedLossScaleManager`,且 `FixedLossScaleManager `的 `drop_overflow_update` 属性配置为False时,此值需要与 `FixedLossScaleManager` 中的 `loss_scale` 相同。有关更多详细信息,请参阅class:`mindspore.FixedLossScaleManager`。默认值:1.0。
|
||||
- **loss_scale** (float) - 梯度缩放系数,必须大于0。如果 `loss_scale` 是整数,它将被转换为浮点数。通常使用默认值,仅当训练时使用了 `FixedLossScaleManager`,且 `FixedLossScaleManager` 的 `drop_overflow_update` 属性配置为False时,此值需要与 `FixedLossScaleManager` 中的 `loss_scale` 相同。有关更多详细信息,请参阅 :class:`mindspore.FixedLossScaleManager`。默认值:1.0。
|
||||
|
|
|
@ -1 +1 @@
|
|||
优化器和混合精度之间通常没有联系。但是,当使用`FixedLossScaleManager`且`FixedLossScaleManager`中的`drop_overflow_update`设置为False时,优化器需要设置'loss_scale'。由于此优化器没有`loss_scale`的参数,因此需要通过其他方式处理`loss_scale`,如何正确处理`loss_scale`详见`LossScale <https://www.mindspore.cn/docs/programming_guide/zh-CN/master/lossscale.html>`。
|
||||
优化器和混合精度之间通常没有联系。但是,当使用 `FixedLossScaleManager` 且 `FixedLossScaleManager` 中的 `drop_overflow_update` 设置为False时,优化器需要设置'loss_scale'。由于此优化器没有 `loss_scale` 的参数,因此需要通过其他方式处理 `loss_scale` ,如何正确处理 `loss_scale` 详见 `LossScale <https://www.mindspore.cn/docs/programming_guide/zh-CN/master/lossscale.html>`_。
|
||||
|
|
|
@ -8,6 +8,7 @@ mindspore.nn.rearrange_inputs
|
|||
此装饰器目前用于 :class:`mindspore.nn.Metric` 类的 `update` 方法。
|
||||
|
||||
**样例:**
|
||||
|
||||
>>> class RearrangeInputsExample:
|
||||
... def __init__(self):
|
||||
... self._indexes = None
|
||||
|
@ -31,7 +32,7 @@ mindspore.nn.rearrange_inputs
|
|||
|
||||
**参数:**
|
||||
|
||||
- **func** (Callable) - 要装饰的候选函数,其输入将被重新排列。
|
||||
**func** (Callable) - 要装饰的候选函数,其输入将被重新排列。
|
||||
|
||||
**返回:**
|
||||
|
||||
|
|
|
@ -17,7 +17,7 @@ mindspore.ops.OnesLike
|
|||
|
||||
**异常:**
|
||||
|
||||
- **TypeError** - - `input_x` 不是Tensor。
|
||||
- **TypeError** - `input_x` 不是Tensor。
|
||||
|
||||
**支持平台:**
|
||||
|
||||
|
|
|
@ -26,8 +26,8 @@ mindspore.ops.ReLUV2
|
|||
|
||||
**异常:**
|
||||
|
||||
- **TypeError** - - `input_x` 不是Tensor。
|
||||
- **ValueError** - -`input_x` 的shape不是4-D。
|
||||
- **TypeError** - `input_x` 不是Tensor。
|
||||
- **ValueError** - `input_x` 的shape不是4-D。
|
||||
|
||||
**支持平台:**
|
||||
|
||||
|
|
|
@ -20,9 +20,9 @@ mindspore.ops.UniformReal
|
|||
|
||||
**异常:**
|
||||
|
||||
- **TypeError** - - `seed` 和 `seed2` 都不是int。
|
||||
- **TypeError:** `shape` 不是tuple。
|
||||
- **ValueError** - `shape` 不是常量值。
|
||||
- **TypeError:** - `seed` 和 `seed2` 都不是int。
|
||||
- **TypeError:** - `shape` 不是tuple。
|
||||
- **ValueError:** - `shape` 不是常量值。
|
||||
|
||||
**支持平台:**
|
||||
|
||||
|
|
Loading…
Reference in New Issue