forked from mindspore-Ecosystem/mindspore
modify the files
This commit is contained in:
parent
a5bf4daf55
commit
c5be4dc10b
|
@ -55,7 +55,6 @@ mindspore.nn.AdamWeightDecay
|
|||
|
||||
.. include:: mindspore.nn.optim_group_order.rst
|
||||
|
||||
|
||||
- **learning_rate** (Union[float, Tensor, Iterable, LearningRateSchedule]): 默认值:1e-3。
|
||||
|
||||
.. include:: mindspore.nn.optim_arg_dynamic_lr.rst
|
||||
|
|
|
@ -29,7 +29,7 @@ mindspore.nn.BatchNorm1d
|
|||
|
||||
**输入:**
|
||||
|
||||
- **x** (Tensor):输入shape为 :math:`(N, C_{in})` 的Tensor。
|
||||
- **x** (Tensor) - 输入shape为 :math:`(N, C_{in})` 的Tensor。
|
||||
|
||||
**输出:**
|
||||
|
||||
|
|
|
@ -18,5 +18,5 @@ mindspore.nn.ConstantPad1d
|
|||
|
||||
- **TypeError** - `padding` 既不是tuple或者int。
|
||||
- **TypeError** - `value` 既不是int,也不是float。
|
||||
- **ValueError** - tuple类型的padding长度不等于2。
|
||||
- **ValueError** - tuple类型的 `padding` 长度不等于2。
|
||||
- **ValueError** - 填充后输出的维度不是正数。
|
||||
|
|
|
@ -18,5 +18,5 @@ mindspore.nn.ConstantPad2d
|
|||
|
||||
- **TypeError** - `padding` 既不是tuple或者int。
|
||||
- **TypeError** - `value` 既不是int,也不是float。
|
||||
- **ValueError** - tuple类型的padding长度大于4或者长度不是2的倍数。
|
||||
- **ValueError** - tuple类型的 `padding` 长度大于4或者长度不是2的倍数。
|
||||
- **ValueError** - 填充后输出的维度不是正数。
|
||||
|
|
|
@ -18,5 +18,5 @@ mindspore.nn.ConstantPad3d
|
|||
|
||||
- **TypeError** - `padding` 既不是tuple或者int。
|
||||
- **TypeError** - `value` 既不是int,也不是float。
|
||||
- **ValueError** - tuple类型的padding长度大于6或者长度不是2的倍数。
|
||||
- **ValueError** - tuple类型的 `padding` 长度大于6或者长度不是2的倍数。
|
||||
- **ValueError** - 填充后输出的维度不是正数。
|
||||
|
|
|
@ -60,7 +60,7 @@ mindspore.nn.CrossEntropyLoss
|
|||
- **logits** (Tensor) - 输入预测值,shape为 :math:`(N, C)` 或 :math:`(N, C, H, W)`
|
||||
(针对二维数据), 或 :math:`(N, C, d_1, d_2, ..., d_K)` (针对高维数据)。`inputs` 需为对数概率。数据类型仅支持float32或float16。
|
||||
- **labels** (Tensor) - 输入目标值,shape为 :math:`(N)` 或 :math:`(N, d_1, d_2, ..., d_K)`
|
||||
(针对高维数据)。数据类型仅支持int32。
|
||||
(针对高维数据)。
|
||||
|
||||
**返回:**
|
||||
|
||||
|
|
|
@ -19,7 +19,7 @@ mindspore.nn.Dense
|
|||
- **weight_init** (Union[Tensor, str, Initializer, numbers.Number]) - 权重参数的初始化方法。数据类型与 `x` 相同。str的值引用自函数 `initializer`。默认值:'normal'。
|
||||
- **bias_init** (Union[Tensor, str, Initializer, numbers.Number]) - 偏置参数的初始化方法。数据类型与 `x` 相同。str的值引用自函数 `initializer`。默认值:'zeros'。
|
||||
- **has_bias** (bool) - 是否使用偏置向量 :math:`\text{bias}` 。默认值:True。
|
||||
- **activation** (Union[str, Cell, Primitive]) - 应用于全连接层输出的激活函数,例如‘ReLU’。默认值:None。
|
||||
- **activation** (Union[str, Cell, Primitive]) - 应用于全连接层输出的激活函数,例如'ReLU'。默认值:None。
|
||||
|
||||
**输入:**
|
||||
|
||||
|
|
|
@ -59,8 +59,7 @@ mindspore.nn.FTRL
|
|||
|
||||
**输入:**
|
||||
|
||||
**grads** (tuple[Tensor]) - 优化器中 `params` 的梯度,shape与优化器中的 `params` 相同。
|
||||
|
||||
- **grads** (tuple[Tensor]) - 优化器中 `params` 的梯度,shape与优化器中的 `params` 相同。
|
||||
|
||||
**输出:**
|
||||
|
||||
|
|
|
@ -30,7 +30,7 @@ mindspore.nn.HuberLoss
|
|||
**参数:**
|
||||
|
||||
- **reduction** (str) - 应用于loss的reduction类型。取值为"mean","sum",或"none"。默认值:"mean"。如果 `reduction` 为"mean"或"sum",则输出一个标量Tensor;如果 `reduction` 为"none",则输出Tensor的shape为广播后的shape。
|
||||
- **delta** (Union[int, float]) - 两种损失之间变化的阈值。 该值必须为正。 默认值:1.0。
|
||||
- **delta** (Union[int, float]) - 两种损失之间变化的阈值。该值必须为正。默认值:1.0。
|
||||
|
||||
**输入:**
|
||||
|
||||
|
|
|
@ -34,7 +34,6 @@ mindspore.nn.LARS
|
|||
|
||||
:math:`w` 表示 `params`,:math:`g` 表示 `gradients` ,:math:`t` 表示当前step,:math:`\lambda` 表示 `optimizer` 配置的 `weight_decay` ,:math:`\gamma` 表示 `optimizer` 配置的 `learning_rate` ,:math:`\eta` 表示 `coefficient` 。
|
||||
|
||||
|
||||
**参数:**
|
||||
|
||||
- **optimizer** (Optimizer) - 待封装和修改梯度的MindSpore优化器。
|
||||
|
@ -47,7 +46,6 @@ mindspore.nn.LARS
|
|||
|
||||
- **gradients** (tuple[Tensor]) - 优化器中 `params` 的梯度,shape与优化器中的 `params` 相同。
|
||||
|
||||
|
||||
**输出:**
|
||||
|
||||
Union[Tensor[bool], tuple[Parameter]],取决于 `optimizer` 的输出。
|
||||
Union[Tensor[bool],tuple[Parameter]],取决于 `optimizer` 的输出。
|
||||
|
|
|
@ -9,7 +9,6 @@ mindspore.nn.Lamb
|
|||
|
||||
LAMB优化器旨在不降低精度的情况下增加训练batch size,支持自适应逐元素更新和精确的分层校正。
|
||||
|
||||
|
||||
参数更新如下:
|
||||
|
||||
.. math::
|
||||
|
|
|
@ -37,12 +37,12 @@ mindspore.nn.LazyAdam
|
|||
.. include:: mindspore.nn.optim_group_gc.rst
|
||||
.. include:: mindspore.nn.optim_group_order.rst
|
||||
|
||||
- **learning_rate** (Union[float, Tensor, Iterable, LearningRateSchedule]): 默认值:1e-3。
|
||||
- **learning_rate** (Union[float, Tensor, Iterable, LearningRateSchedule]) - 默认值:1e-3。
|
||||
|
||||
.. include:: mindspore.nn.optim_arg_dynamic_lr.rst
|
||||
|
||||
- **beta1** (float):`moment1` 的指数衰减率。参数范围(0.0,1.0)。默认值:0.9。
|
||||
- **beta2** (float):`moment2` 的指数衰减率。参数范围(0.0,1.0)。默认值:0.999。
|
||||
- **beta1** (float) - `moment1` 的指数衰减率。参数范围(0.0,1.0)。默认值:0.9。
|
||||
- **beta2** (float) - `moment2` 的指数衰减率。参数范围(0.0,1.0)。默认值:0.999。
|
||||
- **eps** (float) - 将添加到分母中,以提高数值稳定性。必须大于0。默认值:1e-8。
|
||||
- **use_locking** (bool) - 是否对参数更新加锁保护。如果为True,则 `w` 、`m` 和 `v` 的Tensor更新将受到锁的保护。如果为False,则结果不可预测。默认值:False。
|
||||
- **use_nesterov** (bool) - 是否使用Nesterov Accelerated Gradient (NAG)算法更新梯度。如果为True,使用NAG更新梯度。如果为False,则在不使用NAG的情况下更新梯度。默认值:False。
|
||||
|
|
|
@ -5,12 +5,12 @@ mindspore.nn.ReLU
|
|||
|
||||
修正线性单元激活函数(Rectified Linear Unit activation function)。
|
||||
|
||||
逐元素求 :math:`\max(x,\ 0)` 。特别说明,负数输出值会被修改为0,正数输出不受影响。
|
||||
|
||||
.. math::
|
||||
|
||||
\text{ReLU}(x) = (x)^+ = \max(0, x),
|
||||
|
||||
逐元素求 :math:`\max(x,\ 0)` 。特别说明,负数输出值会被修改为0,正数输出不受影响。
|
||||
|
||||
ReLU相关图参见 `ReLU <https://en.wikipedia.org/wiki/Activation_function#/media/File:Activation_rectified_linear.svg>`_ 。
|
||||
|
||||
**输入:**
|
||||
|
|
|
@ -20,7 +20,7 @@ mindspore.nn.Softmax
|
|||
|
||||
**输入:**
|
||||
|
||||
**x** (Tensor) - 用于计算Softmax函数的Tensor,数据类型为float16或float32。
|
||||
- **x** (Tensor) - 用于计算Softmax函数的Tensor,数据类型为float16或float32。
|
||||
|
||||
**输出:**
|
||||
|
||||
|
|
|
@ -24,4 +24,4 @@ mindspore.nn.Tanh
|
|||
|
||||
**异常:**
|
||||
|
||||
**TypeError** - `x` 的数据类型既不是float16也不是float32。
|
||||
- **TypeError** - `x` 的数据类型既不是float16也不是float32。
|
||||
|
|
|
@ -16,13 +16,13 @@ mindspore.nn.Threshold
|
|||
|
||||
**参数:**
|
||||
|
||||
- **threshold** (`Union[int, float]`) – Threshold的阈值。
|
||||
- **value** (`Union[int, float]`) – 输入Tensor中element小于阈值时的填充值。
|
||||
- **threshold** (`Union[int, float]`) - Threshold的阈值。
|
||||
- **value** (`Union[int, float]`) - 输入Tensor中element小于阈值时的填充值。
|
||||
|
||||
**输入:**
|
||||
|
||||
- **input_x** (Tensor) - Threshold的输入,数据类型为float16或float32。
|
||||
|
||||
|
||||
**输出:**
|
||||
|
||||
Tensor,数据类型和shape与 `input_x` 的相同。
|
||||
|
|
|
@ -407,7 +407,7 @@ class BatchNorm2d(_BatchNorm):
|
|||
|
||||
Args:
|
||||
num_features (int): The number of channels of the input tensor. Expected input size is (N, C, H, W),
|
||||
`C` represents the number of channels
|
||||
`C` represents the number of channels.
|
||||
eps (float): A value added to the denominator for numerical stability. Default: 1e-5.
|
||||
momentum (float): A floating hyperparameter of the momentum for the
|
||||
running_mean and running_var computation. Default: 0.9.
|
||||
|
|
Loading…
Reference in New Issue