modify the files

This commit is contained in:
zhangyi 2022-06-14 10:04:53 +08:00
parent a5bf4daf55
commit c5be4dc10b
17 changed files with 20 additions and 25 deletions

View File

@ -55,7 +55,6 @@ mindspore.nn.AdamWeightDecay
.. include:: mindspore.nn.optim_group_order.rst
- **learning_rate** (Union[float, Tensor, Iterable, LearningRateSchedule]): 默认值1e-3。
.. include:: mindspore.nn.optim_arg_dynamic_lr.rst

View File

@ -29,7 +29,7 @@ mindspore.nn.BatchNorm1d
**输入:**
- **x** (Tensor)输入shape为 :math:`(N, C_{in})` 的Tensor。
- **x** (Tensor) - 输入shape为 :math:`(N, C_{in})` 的Tensor。
**输出:**

View File

@ -18,5 +18,5 @@ mindspore.nn.ConstantPad1d
- **TypeError** - `padding` 既不是tuple或者int。
- **TypeError** - `value` 既不是int也不是float。
- **ValueError** - tuple类型的padding长度不等于2。
- **ValueError** - tuple类型的 `padding` 长度不等于2。
- **ValueError** - 填充后输出的维度不是正数。

View File

@ -18,5 +18,5 @@ mindspore.nn.ConstantPad2d
- **TypeError** - `padding` 既不是tuple或者int。
- **TypeError** - `value` 既不是int也不是float。
- **ValueError** - tuple类型的padding长度大于4或者长度不是2的倍数。
- **ValueError** - tuple类型的 `padding` 长度大于4或者长度不是2的倍数。
- **ValueError** - 填充后输出的维度不是正数。

View File

@ -18,5 +18,5 @@ mindspore.nn.ConstantPad3d
- **TypeError** - `padding` 既不是tuple或者int。
- **TypeError** - `value` 既不是int也不是float。
- **ValueError** - tuple类型的padding长度大于6或者长度不是2的倍数。
- **ValueError** - tuple类型的 `padding` 长度大于6或者长度不是2的倍数。
- **ValueError** - 填充后输出的维度不是正数。

View File

@ -60,7 +60,7 @@ mindspore.nn.CrossEntropyLoss
- **logits** (Tensor) - 输入预测值shape为 :math:`(N, C)`:math:`(N, C, H, W)`
(针对二维数据), 或 :math:`(N, C, d_1, d_2, ..., d_K)` (针对高维数据)。`inputs` 需为对数概率。数据类型仅支持float32或float16。
- **labels** (Tensor) - 输入目标值shape为 :math:`(N)`:math:`(N, d_1, d_2, ..., d_K)`
(针对高维数据)。数据类型仅支持int32。
(针对高维数据)。
**返回:**

View File

@ -19,7 +19,7 @@ mindspore.nn.Dense
- **weight_init** (Union[Tensor, str, Initializer, numbers.Number]) - 权重参数的初始化方法。数据类型与 `x` 相同。str的值引用自函数 `initializer`。默认值:'normal'。
- **bias_init** (Union[Tensor, str, Initializer, numbers.Number]) - 偏置参数的初始化方法。数据类型与 `x` 相同。str的值引用自函数 `initializer`。默认值:'zeros'。
- **has_bias** (bool) - 是否使用偏置向量 :math:`\text{bias}` 。默认值True。
- **activation** (Union[str, Cell, Primitive]) - 应用于全连接层输出的激活函数,例如ReLU。默认值None。
- **activation** (Union[str, Cell, Primitive]) - 应用于全连接层输出的激活函数,例如'ReLU'。默认值None。
**输入:**

View File

@ -59,8 +59,7 @@ mindspore.nn.FTRL
**输入:**
**grads** (tuple[Tensor]) - 优化器中 `params` 的梯度shape与优化器中的 `params` 相同。
- **grads** (tuple[Tensor]) - 优化器中 `params` 的梯度shape与优化器中的 `params` 相同。
**输出:**

View File

@ -30,7 +30,7 @@ mindspore.nn.HuberLoss
**参数:**
- **reduction** (str) - 应用于loss的reduction类型。取值为"mean""sum",或"none"。默认值:"mean"。如果 `reduction` 为"mean"或"sum"则输出一个标量Tensor如果 `reduction` 为"none"则输出Tensor的shape为广播后的shape。
- **delta** (Union[int, float]) - 两种损失之间变化的阈值。 该值必须为正。 默认值1.0。
- **delta** (Union[int, float]) - 两种损失之间变化的阈值。该值必须为正。默认值1.0。
**输入:**

View File

@ -34,7 +34,6 @@ mindspore.nn.LARS
:math:`w` 表示 `params`:math:`g` 表示 `gradients` :math:`t` 表示当前step:math:`\lambda` 表示 `optimizer` 配置的 `weight_decay` :math:`\gamma` 表示 `optimizer` 配置的 `learning_rate` :math:`\eta` 表示 `coefficient`
**参数:**
- **optimizer** (Optimizer) - 待封装和修改梯度的MindSpore优化器。
@ -47,7 +46,6 @@ mindspore.nn.LARS
- **gradients** (tuple[Tensor]) - 优化器中 `params` 的梯度shape与优化器中的 `params` 相同。
**输出:**
Union[Tensor[bool], tuple[Parameter]],取决于 `optimizer` 的输出。
Union[Tensor[bool]tuple[Parameter]],取决于 `optimizer` 的输出。

View File

@ -9,7 +9,6 @@ mindspore.nn.Lamb
LAMB优化器旨在不降低精度的情况下增加训练batch size支持自适应逐元素更新和精确的分层校正。
参数更新如下:
.. math::

View File

@ -37,12 +37,12 @@ mindspore.nn.LazyAdam
.. include:: mindspore.nn.optim_group_gc.rst
.. include:: mindspore.nn.optim_group_order.rst
- **learning_rate** (Union[float, Tensor, Iterable, LearningRateSchedule]): 默认值1e-3。
- **learning_rate** (Union[float, Tensor, Iterable, LearningRateSchedule]) - 默认值1e-3。
.. include:: mindspore.nn.optim_arg_dynamic_lr.rst
- **beta1** (float)`moment1` 的指数衰减率。参数范围0.0,1.0。默认值0.9。
- **beta2** (float)`moment2` 的指数衰减率。参数范围0.0,1.0。默认值0.999。
- **beta1** (float) - `moment1` 的指数衰减率。参数范围0.0,1.0。默认值0.9。
- **beta2** (float) - `moment2` 的指数衰减率。参数范围0.0,1.0。默认值0.999。
- **eps** (float) - 将添加到分母中以提高数值稳定性。必须大于0。默认值1e-8。
- **use_locking** (bool) - 是否对参数更新加锁保护。如果为True`w``m``v` 的Tensor更新将受到锁的保护。如果为False则结果不可预测。默认值False。
- **use_nesterov** (bool) - 是否使用Nesterov Accelerated Gradient (NAG)算法更新梯度。如果为True使用NAG更新梯度。如果为False则在不使用NAG的情况下更新梯度。默认值False。

View File

@ -5,12 +5,12 @@ mindspore.nn.ReLU
修正线性单元激活函数Rectified Linear Unit activation function
逐元素求 :math:`\max(x,\ 0)` 。特别说明负数输出值会被修改为0正数输出不受影响。
.. math::
\text{ReLU}(x) = (x)^+ = \max(0, x),
逐元素求 :math:`\max(x,\ 0)` 。特别说明负数输出值会被修改为0正数输出不受影响。
ReLU相关图参见 `ReLU <https://en.wikipedia.org/wiki/Activation_function#/media/File:Activation_rectified_linear.svg>`_
**输入:**

View File

@ -20,7 +20,7 @@ mindspore.nn.Softmax
**输入:**
**x** (Tensor) - 用于计算Softmax函数的Tensor数据类型为float16或float32。
- **x** (Tensor) - 用于计算Softmax函数的Tensor数据类型为float16或float32。
**输出:**

View File

@ -24,4 +24,4 @@ mindspore.nn.Tanh
**异常:**
**TypeError** - `x` 的数据类型既不是float16也不是float32。
- **TypeError** - `x` 的数据类型既不是float16也不是float32。

View File

@ -16,13 +16,13 @@ mindspore.nn.Threshold
**参数:**
- **threshold** (`Union[int, float]`) Threshold的阈值。
- **value** (`Union[int, float]`) 输入Tensor中element小于阈值时的填充值。
- **threshold** (`Union[int, float]`) - Threshold的阈值。
- **value** (`Union[int, float]`) - 输入Tensor中element小于阈值时的填充值。
**输入:**
- **input_x** (Tensor) - Threshold的输入数据类型为float16或float32。
**输出:**
Tensor数据类型和shape与 `input_x` 的相同。

View File

@ -407,7 +407,7 @@ class BatchNorm2d(_BatchNorm):
Args:
num_features (int): The number of channels of the input tensor. Expected input size is (N, C, H, W),
`C` represents the number of channels
`C` represents the number of channels.
eps (float): A value added to the denominator for numerical stability. Default: 1e-5.
momentum (float): A floating hyperparameter of the momentum for the
running_mean and running_var computation. Default: 0.9.