update api format

This commit is contained in:
yingchen 2021-12-04 18:37:47 +08:00
parent c88da99f77
commit 999ce681a4
32 changed files with 107 additions and 106 deletions

View File

@ -110,9 +110,9 @@ mindspore.common.initializer
.. math::
boundary = gain * \sqrt{\frac{6}{n_{in} + n_{out}}}
- `gain` 是一个可选的缩放因子。
- `n_{in}` 为权重Tensor中输入单元的数量。
- `n_{out}` 为权重Tensor中输出单元的数量。
- :math:`gain` 是一个可选的缩放因子。
- :math:`n_{in}` 为权重Tensor中输入单元的数量。
- :math:`n_{out}` 为权重Tensor中输出单元的数量。
有关 XavierUniform 算法的详细信息,请查看 http://proceedings.mlr.press/v9/glorot10a.html。

View File

@ -57,9 +57,9 @@ mindspore.communication
**异常:**
**TypeError** 在参数 `group` 不是字符串时抛出。
**ValueError** 在后台不可用时抛出。
**RuntimeError** HCCLNCCL服务不可用时抛出。
- **TypeError** 在参数 `group` 不是字符串时抛出。
- **ValueError** 在后台不可用时抛出。
- **RuntimeError** HCCLNCCL服务不可用时抛出。
.. py:class:: mindspore.communication.get_group_size(group=GlobalComm.WORLD_COMM_GROUP)

View File

@ -24,4 +24,3 @@ mindspore.LossScaleManager
**参数:**
**overflow** (bool) - 表示训练过程是否溢出。

View File

@ -53,7 +53,7 @@ mindspore.dtype
``type_type`` 类型的类型定义。
``type_none`` 没有匹配的返回类型,对应 Python 中的 ``type(None)``
``symbolic_key````env_type`` 中用作变量的键的变量的值。
``env_type`` 用于存储函数的自由变量的梯度,其中键是自由变量节点的``symbolic_key``,值是梯度。
``env_type`` 用于存储函数的自由变量的梯度,其中键是自由变量节点的 `symbolic_key` ,值是梯度。
============================ =================
- **树形拓扑**

View File

@ -7,6 +7,7 @@ mindspore.nn.Adagrad
Adagrad用于在线学习和随机优化。
请参阅论文 `Efficient Learning using Forward-Backward Splitting <https://proceedings.neurips.cc/paper/2009/file/621bf66ddb7c962aa0d22ac97d69b793-Paper.pdf>`_
公式如下:
.. math::
@ -33,6 +34,7 @@ mindspore.nn.Adagrad
- **accum** (float) - 累加器 :math:`h` 的初始值必须大于等于零。默认值0.1。
- **learning_rate** (Union[float, Tensor, Iterable, LearningRateSchedule]) - 默认值0.001。
.. include:: mindspore.nn.optim_arg_dynamic_lr.rst
- **update_slots** (bool) - 如果为True则更新累加器 :math:`h` 。默认值True。

View File

@ -1,4 +1,4 @@
Class mindspore.nn.F1
mindspore.nn.F1
=====================
.. py:class:: mindspore.nn.F1

View File

@ -1,6 +1,5 @@
mindspore.nn. mindspore.nn.FTRL
================================
mindspore.nn.FTRL
=================
.. py:class:: mindspore.nn.FTRL(*args, **kwargs)
使用ApplyFtrl算子实现FTRL算法。

View File

@ -22,7 +22,7 @@ mindspore.nn.Lamb
w_t = w_{t-1} -\eta_t \frac{\| w_{t-1} \|}{\| r_t + \lambda w_{t-1} \|} (r_t + \lambda w_{t-1})
\end{gather*}
其中math:`m` 代表第一个矩向量,:math:`v` 代表第二个矩向量,:math:`\eta` 表示学习率,:math:`\lambda` 表示LAMB权重衰减率。
其中, :math:`m` 代表第一个矩向量,:math:`v` 代表第二个矩向量,:math:`\eta` 表示学习率,:math:`\lambda` 表示LAMB权重衰减率。
.. note::
.. include:: mindspore.nn.optim_note_weight_decay.rst

View File

@ -42,7 +42,7 @@ mindspore.nn.LazyAdam
.. include:: mindspore.nn.optim_arg_dynamic_lr.rst
- **beta1** (float)`moment1` 的指数衰减率。参数范围0.0,1.0。默认值0.9。
- **beta2** (float)moment2` 的指数衰减率。参数范围0.0,1.0。默认值0.999。
- **beta2** (float)`moment2` 的指数衰减率。参数范围0.0,1.0。默认值0.999。
- **eps** (float)将添加到分母中以提高数值稳定性。必须大于0。默认值1e-8。
- **use_locking** (bool)是否对参数更新加锁保护。如果为True`w``m``v` 的Tensor更新将受到锁的保护。如果为False则结果不可预测。默认值False。
- **use_nesterov** (bool)是否使用Nesterov Accelerated Gradient (NAG)算法更新梯度。如果为True使用NAG更新梯度。如果为False则在不使用NAG的情况下更新梯度。默认值False。

View File

@ -32,6 +32,7 @@ mindspore.nn.Loss
Floatloss的平均值。
**异常:**
RuntimeError样本总数为0。
.. py:method:: update(*inputs)
@ -39,8 +40,10 @@ mindspore.nn.Loss
更新内部评估结果。
**参数:**
inputs输入只包含一个元素且该元素为loss。loss的维度必须为0或1。
**异常:**
ValueError`inputs` 的长度不为1。
ValueError`inputs` 的维度不为0或1。
**ValueError**`inputs` 的长度不为1。
**ValueError**`inputs` 的维度不为0或1。

View File

@ -10,12 +10,12 @@ mindspore.nn.Precision
.. math::
\text{precision} = \frac{\text{true_positive}}{\text{true_positive} + \text{false_positive}}
注:
.. note::
在多标签情况下, :math:`y`:math:`y_{pred}` 的元素必须为0或1。
**参数:**
- **eval_type** str- 支持'classification'和'multilabel'。默认值:'classification'。
**eval_type** str- 支持'classification'和'multilabel'。默认值:'classification'。
**样例:**
@ -41,7 +41,7 @@ mindspore.nn.Precision
**参数:**
- **average** (bool) - 指定是否计算平均精度。默认值False。
**average** (bool) - 指定是否计算平均精度。默认值False。
**返回:**
@ -53,13 +53,12 @@ mindspore.nn.Precision
**参数:**
- **inputs** 输入 `y_pred``y``y_pred``y` 支持Tensor、list或numpy.ndarray类型。
**inputs** 输入 `y_pred``y``y_pred``y` 支持Tensor、list或numpy.ndarray类型。
对于'classification'情况,`y_pred` 在大多数情况下由范围 :math:`[0, 1]` 中的浮点数组成shape为 :math:`(N, C)` ,其中 :math:`N` 是样本数, :math:`C` 是类别数。
`y` 由整数值组成如果是one_hot编码格式shape是 :math:`(N,C)` 如果是类别索引shape是 :math:`(N,)`
对于'classification'情况,`y_pred` 在大多数情况下由范围 :math:`[0, 1]` 中的浮点数组成shape为 :math:`(N, C)` ,其中 :math:`N` 是样本数, :math:`C` 是类别数。`y` 由整数值组成如果是one_hot编码格式shape是 :math:`(N,C)` 如果是类别索引shape是 :math:`(N,)`
对于'multilabel'情况,`y_pred``y` 只能是值为0或1的one-hot编码格式其中值为1的索引表示正类别。`y_pred``y` 的shape都是 :math:`(N,C)`
**异常:**
- **ValueError** - inputs数量不是2。
**ValueError** - inputs数量不是2。

View File

@ -10,12 +10,12 @@ mindspore.nn.Recall
.. math::
\text{recall} = \frac{\text{true_positive}}{\text{true_positive} + \text{false_negative}}
注:
.. note::
在多标签情况下, :math:`y`:math:`y_{pred}` 的元素必须为0或1。
**参数:**
- **eval_type** str- 支持'classification'和'multilabel'。默认值:'classification'。
**eval_type** str- 支持'classification'和'multilabel'。默认值:'classification'。
**样例:**
@ -41,7 +41,7 @@ mindspore.nn.Recall
**参数:**
- **average** (bool) - 指定是否计算平均召回率。默认值False。
**average** (bool) - 指定是否计算平均召回率。默认值False。
**返回:**
@ -53,13 +53,12 @@ mindspore.nn.Recall
**参数:**
- **inputs** - 输入 `y_pred``y``y_pred``y` 支持Tensor、list或numpy.ndarray类型。
**inputs** - 输入 `y_pred``y``y_pred``y` 支持Tensor、list或numpy.ndarray类型。
对于'classification'情况,`y_pred` 在大多数情况下由范围 :math:`[0, 1]` 中的浮点数组成shape为 :math:`(N, C)` ,其中 :math:`N` 是样本数, :math:`C` 是类别数。
`y` 由整数值组成如果是one_hot编码格式shape是 :math:`(N,C)` 如果是类别索引shape是 :math:`(N,)`
对于'classification'情况,`y_pred` 在大多数情况下由范围 :math:`[0, 1]` 中的浮点数组成shape为 :math:`(N, C)` ,其中 :math:`N` 是样本数, :math:`C` 是类别数。`y` 由整数值组成如果是one_hot编码格式shape是 :math:`(N,C)` 如果是类别索引shape是 :math:`(N,)`
对于'multilabel'情况,`y_pred``y` 只能是值为0或1的one-hot编码格式其中值为1的索引表示正类别。`y_pred``y` 的shape都是 :math:`(N,C)`
**异常:**
- **ValueError** - inputs数量不是2。
**ValueError** - inputs数量不是2。

View File

@ -31,6 +31,7 @@ mindspore.nn.SGD
**参数:**
- **params** (Union[list[Parameter], list[dict]]): 当 `params` 为会更新的 `Parameter` 列表时,`params` 中的元素必须为类 `Parameter`。当 `params``dict` 列表时,"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params"为可以解析的键。
.. include:: mindspore.nn.optim_group_param.rst
.. include:: mindspore.nn.optim_group_lr.rst
.. include:: mindspore.nn.optim_group_weight_decay.rst

View File

@ -3,8 +3,7 @@ mindspore.nn.Top1CategoricalAccuracy
.. py:class:: mindspore.nn.Top1CategoricalAccuracy
计算top-1分类正确率。此类是TopKCategoricalAccuracy的特殊类。
有关更多详细信息,请参阅:class:`TopKCategoricalAccuracy`
计算top-1分类正确率。此类是TopKCategoricalAccuracy的特殊类。有关更多详细信息请参阅 :class:`TopKCategoricalAccuracy`
**样例:**

View File

@ -3,8 +3,7 @@ mindspore.nn.Top5CategoricalAccuracy
.. py:class:: mindspore.nn.Top5CategoricalAccuracy
计算top-5分类正确率。此类是TopKCategoricalAccuracy的特殊类。
有关更多详细信息,请参阅:class:`TopKCategoricalAccuracy`
计算top-5分类正确率。此类是TopKCategoricalAccuracy的特殊类。有关更多详细信息请参阅 :class:`TopKCategoricalAccuracy`
**样例:**

View File

@ -30,8 +30,8 @@ mindspore.nn.WarmUpLR
**异常:**
- **- **TypeError**** `learning_rate` 不是float。
- **- **TypeError**** `warmup_steps` 不是int。
- **TypeError**** `learning_rate` 不是float。
- **TypeError**** `warmup_steps` 不是int。
- **ValueError** `warmup_steps` 小于1。
- **ValueError** `learning_rate` 小于或等于0。

View File

@ -5,7 +5,7 @@
所有神经网络的基类。
一个 `Cell` 可以是单一的神经网络单元,如 :class:`mindspore.nn.Conv2d`, :class:`mindspore.nn.ReLU, :class:`mindspore.nn.BatchNorm`等,也可以是组成网络的 `Cell` 的结合体。
一个 `Cell` 可以是单一的神经网络单元,如 :class:`mindspore.nn.Conv2d`, :class:`mindspore.nn.ReLU`, :class:`mindspore.nn.BatchNorm` 等,也可以是组成网络的 `Cell` 的结合体。
.. note::
一般情况下,自动微分 (AutoDiff) 算法会自动调用梯度函数,但是如果使用反向传播方法 (bprop method),梯度函数将会被反向传播方法代替。反向传播函数会接收一个包含损失对输出的梯度张量 `dout` 和一个包含前向传播结果的张量 `out` 。反向传播过程需要计算损失对输入的梯度,损失对参数变量的梯度目前暂不支持。反向传播函数必须包含自身参数。

View File

@ -1 +1 @@
- **loss_scale** (float) - 梯度缩放系数必须大于0。如果 `loss_scale` 是整数,它将被转换为浮点数。通常使用默认值,仅当训练时使用了 `FixedLossScaleManager`,且 `FixedLossScaleManager ``drop_overflow_update` 属性配置为False时此值需要与 `FixedLossScaleManager` 中的 `loss_scale` 相同。有关更多详细信息请参阅class`mindspore.FixedLossScaleManager`。默认值1.0。
- **loss_scale** (float) - 梯度缩放系数必须大于0。如果 `loss_scale` 是整数,它将被转换为浮点数。通常使用默认值,仅当训练时使用了 `FixedLossScaleManager`,且 `FixedLossScaleManager` `drop_overflow_update` 属性配置为False时此值需要与 `FixedLossScaleManager` 中的 `loss_scale` 相同。有关更多详细信息,请参阅 :class`mindspore.FixedLossScaleManager`。默认值1.0。

View File

@ -1 +1 @@
优化器和混合精度之间通常没有联系。但是,当使用`FixedLossScaleManager``FixedLossScaleManager`中的`drop_overflow_update`设置为False时优化器需要设置'loss_scale'。由于此优化器没有`loss_scale`的参数,因此需要通过其他方式处理`loss_scale`,如何正确处理`loss_scale`详见`LossScale <https://www.mindspore.cn/docs/programming_guide/zh-CN/master/lossscale.html>`
优化器和混合精度之间通常没有联系。但是,当使用 `FixedLossScaleManager` 且 `FixedLossScaleManager` 中的 `drop_overflow_update` 设置为False时优化器需要设置'loss_scale'。由于此优化器没有 `loss_scale` 的参数,因此需要通过其他方式处理 `loss_scale` ,如何正确处理 `loss_scale` 详见 `LossScale <https://www.mindspore.cn/docs/programming_guide/zh-CN/master/lossscale.html>`_

View File

@ -8,6 +8,7 @@ mindspore.nn.rearrange_inputs
此装饰器目前用于 :class:`mindspore.nn.Metric` 类的 `update` 方法。
**样例:**
>>> class RearrangeInputsExample:
... def __init__(self):
... self._indexes = None
@ -31,7 +32,7 @@ mindspore.nn.rearrange_inputs
**参数:**
- **func** (Callable) - 要装饰的候选函数,其输入将被重新排列。
**func** (Callable) - 要装饰的候选函数,其输入将被重新排列。
**返回:**

View File

@ -17,7 +17,7 @@ mindspore.ops.OnesLike
**异常:**
- **TypeError** - - `input_x` 不是Tensor。
- **TypeError** - `input_x` 不是Tensor。
**支持平台:**

View File

@ -26,8 +26,8 @@ mindspore.ops.ReLUV2
**异常:**
- **TypeError** - - `input_x` 不是Tensor。
- **ValueError** - -`input_x` 的shape不是4-D。
- **TypeError** - `input_x` 不是Tensor。
- **ValueError** - `input_x` 的shape不是4-D。
**支持平台:**

View File

@ -20,9 +20,9 @@ mindspore.ops.UniformReal
**异常:**
- **TypeError** - - `seed``seed2` 都不是int。
- **TypeError** `shape` 不是tuple。
- **ValueError** - `shape` 不是常量值。
- **TypeError:** - `seed``seed2` 都不是int。
- **TypeError** - `shape` 不是tuple。
- **ValueError:** - `shape` 不是常量值。
**支持平台:**