forked from mindspore-Ecosystem/mindspore
modify the rst fils 0907
This commit is contained in:
parent
7014e91c14
commit
1c6864bc07
|
@ -58,7 +58,11 @@ mindspore.nn.Adagrad
|
|||
|
||||
.. include:: mindspore.nn.optim_arg_loss_scale.rst
|
||||
|
||||
- **weight_decay** (Union[float, int]) - 要乘以权重的权重衰减值,必须大于等于0.0。默认值:0.0。
|
||||
- **weight_decay** (Union[float, int, Cell]) - 要乘以权重的权重衰减值,必须大于等于0.0。默认值:0.0。
|
||||
|
||||
- float:固定的权量衰减值。必须等于或大于0。
|
||||
- int:固定的权量衰减值。必须等于或大于0。它将会被转换为float类型。
|
||||
- Cell:权重衰减此时是动态的。在训练期间,优化器调用该Cell的实例,以获取当前阶段所要使用的权重衰减值。
|
||||
|
||||
**输入:**
|
||||
|
||||
|
|
|
@ -59,7 +59,7 @@ mindspore.nn.Adam
|
|||
.. include:: mindspore.nn.optim_group_gc.rst
|
||||
.. include:: mindspore.nn.optim_group_order.rst
|
||||
|
||||
- **learning_rate** (Union[float, Tensor, iterable, LearningRateSchedule]): 默认值:1e-3。
|
||||
- **learning_rate** (Union[float, Tensor, iterable, LearningRateSchedule]) - 默认值:1e-3。
|
||||
|
||||
.. include:: mindspore.nn.optim_arg_dynamic_lr.rst
|
||||
|
||||
|
|
|
@ -5,6 +5,8 @@ mindspore.nn.AvgPool1d
|
|||
|
||||
对输入的多维数据进行一维平面上的平均池化运算。
|
||||
|
||||
在一个输入Tensor上应用1D average pooling,可被视为组成一个1D输入平面。
|
||||
|
||||
通常,输入的shape为 :math:`(N_{in}, C_{in}, L_{in})` ,AvgPool1d在 :math:`(L_{in})` 维度上输出区域平均值。
|
||||
给定 `kernel_size` 为 :math:`k` 和 `stride` ,公式定义如下:
|
||||
|
||||
|
|
|
@ -31,7 +31,7 @@ mindspore.nn.BatchNorm2d
|
|||
- **beta_init** (Union[Tensor, str, Initializer, numbers.Number]) - :math:`\beta` 参数的初始化方法。str的值引用自函数 `mindspore.common.initializer`,包括'zeros'、'ones'等。默认值:'zeros'。
|
||||
- **moving_mean_init** (Union[Tensor, str, Initializer, numbers.Number]) - 动态平均值的初始化方法。str的值引用自函数 `mindspore.common.initializer`,包括'zeros'、'ones'等。默认值:'zeros'。
|
||||
- **moving_var_init** (Union[Tensor, str, Initializer, numbers.Number]) - 动态方差的初始化方法。str的值引用自函数 `mindspore.common.initializer`,包括'zeros'、'ones'等。默认值:'ones'。
|
||||
- **use_batch_statistics** (bool)
|
||||
- **use_batch_statistics** (bool) -
|
||||
- 如果为True,则使用当前批处理数据的平均值和方差值,并跟踪运行平均值和运行方差。
|
||||
- 如果为False,则使用指定值的平均值和方差值,不跟踪统计值。
|
||||
- 如果为None,则根据训练和验证模式自动设置 `use_batch_statistics` 为True或False。在训练时, `use_batch_statistics会` 设置为True。在验证时, `use_batch_statistics` 会自动设置为False。默认值:None。
|
||||
|
|
|
@ -42,10 +42,10 @@ mindspore.nn.ConfusionMatrixMetric
|
|||
|
||||
- **inputs** (tuple) - `y_pred` 和 `y` 。 `y_pred` 和 `y` 是 `Tensor` 、列表或数组。
|
||||
|
||||
- **y_pred** (ndarray):待计算的输入数据。格式必须为one-hot,且第一个维度是batch。
|
||||
- **y_pred** (ndarray) - 待计算的输入数据。格式必须为one-hot,且第一个维度是batch。
|
||||
`y_pred` 的shape是 :math:`(N, C, ...)` 或 :math:`(N, ...)` 。
|
||||
至于分类任务, `y_pred` 的shape应为[BN],其中N大于1。对于分割任务,shape应为[BNHW]或[BNHWD]。
|
||||
- **y** (ndarray):计算度量值的真实值。格式必须为one-hot,且第一个维度是batch。`y` 的shape是 :math:`(N, C, ...)` 。
|
||||
- **y** (ndarray) - 计算度量值的真实值。格式必须为one-hot,且第一个维度是batch。`y` 的shape是 :math:`(N, C, ...)` 。
|
||||
|
||||
**异常:**
|
||||
|
||||
|
|
|
@ -18,23 +18,23 @@ mindspore.nn.Conv2d
|
|||
|
||||
**参数:**
|
||||
|
||||
- **in_channels** (`int`) - Conv2d层输入Tensor的空间维度。
|
||||
- **out_channels** (`dict`) - Conv2d层输出Tensor的空间维度。
|
||||
- **kernel_size** (`Union[int, tuple[int]]`) - 指定二维卷积核的高度和宽度。数据类型为整型或两个整型的tuple。一个整数表示卷积核的高度和宽度均为该值。两个整数的tuple分别表示卷积核的高度和宽度。
|
||||
- **stride** (`Union[int, tuple[int]]`) - 二维卷积核的移动步长。数据类型为整型或两个整型的tuple。一个整数表示在高度和宽度方向的移动步长均为该值。两个整数的tuple分别表示在高度和宽度方向的移动步长。默认值:1。
|
||||
- **pad_mode** (`str`) - 指定填充模式。可选值为"same"、"valid"、"pad"。默认值:"same"。
|
||||
- **in_channels** (int) - Conv2d层输入Tensor的空间维度。
|
||||
- **out_channels** (dict) - Conv2d层输出Tensor的空间维度。
|
||||
- **kernel_size** (Union[int, tuple[int]]) - 指定二维卷积核的高度和宽度。数据类型为整型或两个整型的tuple。一个整数表示卷积核的高度和宽度均为该值。两个整数的tuple分别表示卷积核的高度和宽度。
|
||||
- **stride** (Union[int, tuple[int]]) - 二维卷积核的移动步长。数据类型为整型或两个整型的tuple。一个整数表示在高度和宽度方向的移动步长均为该值。两个整数的tuple分别表示在高度和宽度方向的移动步长。默认值:1。
|
||||
- **pad_mode** (str) - 指定填充模式。可选值为"same"、"valid"、"pad"。默认值:"same"。
|
||||
|
||||
- **same**:输出的高度和宽度分别与输入整除 `stride` 后的值相同。若设置该模式,`padding` 的值必须为0。
|
||||
- **valid**:在不填充的前提下返回有效计算所得的输出。不满足计算的多余像素会被丢弃。如果设置此模式,则 `padding` 的值必须为0。
|
||||
- **pad**:对输入进行填充。在输入的高度和宽度方向上填充 `padding` 大小的0。如果设置此模式, `padding` 必须大于或等于0。
|
||||
|
||||
- **padding** (`Union[int, tuple[int]]`) - 输入的高度和宽度方向上填充的数量。数据类型为int或包含4个整数的tuple。如果 `padding` 是一个整数,那么上、下、左、右的填充都等于 `padding` 。如果 `padding` 是一个有4个整数的tuple,那么上、下、左、右的填充分别等于 `padding[0]` 、 `padding[1]` 、 `padding[2]` 和 `padding[3]` 。值应该要大于等于0,默认值:0。
|
||||
- **dilation** (`Union[int, tuple[int]]`) - 二维卷积核膨胀尺寸。数据类型为整型或具有两个整型的tuple。若 :math:`k > 1` ,则kernel间隔 `k` 个元素进行采样。垂直和水平方向上的 `k` ,其取值范围分别为[1, H]和[1, W]。默认值:1。
|
||||
- **group** (`int`) - 将过滤器拆分为组, `in_channels` 和 `out_channels` 必须可被 `group` 整除。如果组数等于 `in_channels` 和 `out_channels` ,这个二维卷积层也被称为二维深度卷积层。默认值:1.
|
||||
- **has_bias** (`bool`) - Conv2d层是否添加偏置参数。默认值:False。
|
||||
- **padding** (Union[int, tuple[int]]) - 输入的高度和宽度方向上填充的数量。数据类型为int或包含4个整数的tuple。如果 `padding` 是一个整数,那么上、下、左、右的填充都等于 `padding` 。如果 `padding` 是一个有4个整数的tuple,那么上、下、左、右的填充分别等于 `padding[0]` 、 `padding[1]` 、 `padding[2]` 和 `padding[3]` 。值应该要大于等于0,默认值:0。
|
||||
- **dilation** (Union[int, tuple[int]]) - 二维卷积核膨胀尺寸。数据类型为整型或具有两个整型的tuple。若 :math:`k > 1` ,则kernel间隔 `k` 个元素进行采样。垂直和水平方向上的 `k` ,其取值范围分别为[1, H]和[1, W]。默认值:1。
|
||||
- **group** (int) - 将过滤器拆分为组, `in_channels` 和 `out_channels` 必须可被 `group` 整除。如果组数等于 `in_channels` 和 `out_channels` ,这个二维卷积层也被称为二维深度卷积层。默认值:1.
|
||||
- **has_bias** (bool) - Conv2d层是否添加偏置参数。默认值:False。
|
||||
- **weight_init** (Union[Tensor, str, Initializer, numbers.Number]) - 权重参数的初始化方法。它可以是Tensor,str,Initializer或numbers.Number。当使用str时,可选"TruncatedNormal","Normal","Uniform","HeUniform"和"XavierUniform"分布以及常量"One"和"Zero"分布的值,可接受别名"xavier_uniform","he_uniform","ones"和"zeros"。上述字符串大小写均可。更多细节请参考Initializer的值。默认值:"normal"。
|
||||
- **bias_init** (Union[Tensor, str, Initializer, numbers.Number]) - 偏置参数的初始化方法。可以使用的初始化方法与"weight_init"相同。更多细节请参考Initializer的值。默认值:"zeros"。
|
||||
- **data_format** (`str`) - 数据格式的可选值有"NHWC","NCHW"。默认值:"NCHW"。
|
||||
- **data_format** (str) - 数据格式的可选值有"NHWC","NCHW"。默认值:"NCHW"。
|
||||
|
||||
**输入:**
|
||||
|
||||
|
|
|
@ -19,11 +19,11 @@ mindspore.nn.Dense
|
|||
- **weight_init** (Union[Tensor, str, Initializer, numbers.Number]) - 权重参数的初始化方法。数据类型与 `x` 相同。str的值引用自函数 `initializer`。默认值:'normal'。
|
||||
- **bias_init** (Union[Tensor, str, Initializer, numbers.Number]) - 偏置参数的初始化方法。数据类型与 `x` 相同。str的值引用自函数 `initializer`。默认值:'zeros'。
|
||||
- **has_bias** (bool) - 是否使用偏置向量 :math:`\text{bias}` 。默认值:True。
|
||||
- **activation** (Union[str, Cell, Primitive]) - 应用于全连接层输出的激活函数。可指定激活函数名,如'relu',或具体激活函数,如mindspore.nn.ReLU()。默认值:None。
|
||||
- **activation** (Union[str, Cell, Primitive, None]) - 应用于全连接层输出的激活函数。可指定激活函数名,如'relu',或具体激活函数,如mindspore.nn.ReLU()。默认值:None。
|
||||
|
||||
**输入:**
|
||||
|
||||
- **x** (Tensor) - shape为 :math:`(*,in\_channels)` 的Tensor。 参数中的 `in_channels` 应等于输入中的 :math:`in\_channels` 。
|
||||
- **x** (Tensor) - shape为 :math:`(*,in\_channels)` 的Tensor。参数中的 `in_channels` 应等于输入中的 :math:`in\_channels` 。
|
||||
|
||||
**输出:**
|
||||
|
||||
|
|
|
@ -3,7 +3,7 @@ mindspore.nn.Dropout2d
|
|||
|
||||
.. py:class:: mindspore.nn.Dropout2d(p=0.5)
|
||||
|
||||
在训练期间,以服从伯努利分布的概率 `p` 随机将输入Tensor的某些通道归零。(对于形状为 `NCHW` 的四维Tensor,其通道特征图指的是后两维 `HW` 形状的二维特征图)。
|
||||
在训练期间,以服从伯努利分布的概率 `p` 随机将输入Tensor的某些通道归零(对于形状为 `NCHW` 的四维Tensor,其通道特征图指的是后两维 `HW` 形状的二维特征图)。
|
||||
例如,在批处理输入中 :math:`i\_th` 批, :math:`j\_th` 通道的 `input[i, j]` `2D` Tensor 是一个待处理数据。
|
||||
每个通道将会独立依据伯努利分布概率 `p` 来确定是否被清零。
|
||||
|
||||
|
|
|
@ -3,7 +3,7 @@ mindspore.nn.Dropout3d
|
|||
|
||||
.. py:class:: mindspore.nn.Dropout3d(p=0.5)
|
||||
|
||||
在训练期间,以服从伯努利分布的概率 `p` 随机将输入Tensor的某些通道归零。(对于形状为 `NCDHW` 的 `5D` Tensor。
|
||||
在训练期间,以服从伯努利分布的概率 `p` 随机将输入Tensor的某些通道归零(对于形状为 `NCDHW` 的 `5D` Tensor。
|
||||
其通道特征图指的是后三维 `DHW` 形状的三维特征图)。
|
||||
例如,在批处理输入中 :math:`i\_th` 批, :math:`j\_th` 通道的 `input[i, j]` `3D` Tensor 是一个待处理数据。
|
||||
每个通道将会独立依据伯努利分布概率 `p` 来确定是否被清零。
|
||||
|
|
|
@ -22,10 +22,10 @@ mindspore.nn.ExponentialDecayLR
|
|||
|
||||
**参数:**
|
||||
|
||||
- **learning_rate** (float): 学习率的初始值。
|
||||
- **decay_rate** (float): 衰减率。
|
||||
- **decay_steps** (int): 进行衰减的step数。
|
||||
- **is_stair** (bool): 如果为True,则学习率每 `decay_steps` 步衰减一次。默认值:False。
|
||||
- **learning_rate** (float) - 学习率的初始值。
|
||||
- **decay_rate** (float) - 衰减率。
|
||||
- **decay_steps** (int) - 进行衰减的step数。
|
||||
- **is_stair** (bool) - 如果为True,则学习率每 `decay_steps` 步衰减一次。默认值:False。
|
||||
|
||||
**输入:**
|
||||
|
||||
|
|
|
@ -5,7 +5,7 @@ mindspore.nn.LogSigmoid
|
|||
|
||||
Log Sigmoid激活函数。
|
||||
|
||||
按元素计算Log Sigmoid激活函数。
|
||||
按元素计算Log Sigmoid激活函数。输入是任意格式的Tensor。
|
||||
|
||||
Log Sigmoid定义为:
|
||||
|
||||
|
|
|
@ -27,7 +27,7 @@ mindspore.nn.Momentum
|
|||
|
||||
**参数:**
|
||||
|
||||
- **params** (Union[list[Parameter], list[dict]]): 必须是 `Parameter` 组成的列表或字典组成的列表。当列表元素是字典时,字典的键可以是"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params":
|
||||
- **params** (Union[list[Parameter], list[dict]]) - 必须是 `Parameter` 组成的列表或字典组成的列表。当列表元素是字典时,字典的键可以是"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params":
|
||||
|
||||
.. include:: mindspore.nn.optim_group_param.rst
|
||||
.. include:: mindspore.nn.optim_group_lr.rst
|
||||
|
@ -35,7 +35,7 @@ mindspore.nn.Momentum
|
|||
.. include:: mindspore.nn.optim_group_gc.rst
|
||||
.. include:: mindspore.nn.optim_group_order.rst
|
||||
|
||||
- **learning_rate** (Union[float, int, Tensor, Iterable, LearningRateSchedule]):
|
||||
- **learning_rate** (Union[float, int, Tensor, Iterable, LearningRateSchedule]) -
|
||||
|
||||
.. include:: mindspore.nn.optim_arg_dynamic_lr.rst
|
||||
|
||||
|
|
|
@ -12,7 +12,7 @@ mindspore.nn.Optimizer
|
|||
|
||||
**参数:**
|
||||
|
||||
- **learning_rate** (Union[float, int, Tensor, Iterable, LearningRateSchedule]) -
|
||||
- **learning_rate** (Union[float, int, Tensor, Iterable, LearningRateSchedule]) -
|
||||
|
||||
.. include:: mindspore.nn.optim_arg_dynamic_lr.rst
|
||||
|
||||
|
|
|
@ -5,6 +5,8 @@ mindspore.nn.PReLU
|
|||
|
||||
PReLU激活层(PReLU Activation Operator)。
|
||||
|
||||
逐元素应用PReLU function。
|
||||
|
||||
公式定义为:
|
||||
|
||||
.. math::
|
||||
|
|
|
@ -12,7 +12,7 @@ mindspore.nn.Perplexity
|
|||
|
||||
**参数:**
|
||||
|
||||
- **ignore_label** (int) - 计数时要忽略的无效标签的索引。如果设置为None,它将包括所有条目。默认值:None。
|
||||
- **ignore_label** (Union[int, None]) - 计数时要忽略的无效标签的索引。如果设置为None,它将包括所有条目。默认值:None。
|
||||
|
||||
.. py:method:: clear()
|
||||
|
||||
|
|
|
@ -30,24 +30,24 @@ mindspore.nn.SGD
|
|||
|
||||
**参数:**
|
||||
|
||||
- **params** (Union[list[Parameter], list[dict]]): 当 `params` 为会更新的 `Parameter` 列表时,`params` 中的元素必须为类 `Parameter`。当 `params` 为 `dict` 列表时,"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params"为可以解析的键。
|
||||
- **params** (Union[list[Parameter], list[dict]]) - 当 `params` 为会更新的 `Parameter` 列表时,`params` 中的元素必须为类 `Parameter`。当 `params` 为 `dict` 列表时,"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params"为可以解析的键。
|
||||
|
||||
.. include:: mindspore.nn.optim_group_param.rst
|
||||
.. include:: mindspore.nn.optim_group_lr.rst
|
||||
|
||||
- **weight_decay** : 目前不支持通过参数分组使用不同的weight_decay。
|
||||
- **weight_decay** - 目前不支持通过参数分组使用不同的weight_decay。
|
||||
|
||||
.. include:: mindspore.nn.optim_group_gc.rst
|
||||
.. include:: mindspore.nn.optim_group_order.rst
|
||||
|
||||
- **learning_rate** (Union[float, int, Tensor, Iterable, LearningRateSchedule]): 默认值:0.1。
|
||||
- **learning_rate** (Union[float, int, Tensor, Iterable, LearningRateSchedule]) - 默认值:0.1。
|
||||
|
||||
.. include:: mindspore.nn.optim_arg_dynamic_lr.rst
|
||||
|
||||
- **momentum** (float): 浮点动量,必须大于等于0.0。默认值:0.0。
|
||||
- **dampening** (float): 浮点动量阻尼值,必须大于等于0.0。默认值:0.0。
|
||||
- **weight_decay** (float): 权重衰减(L2 penalty),必须大于等于0。默认值:0.0。
|
||||
- **nesterov** (bool): 启用Nesterov动量。如果使用Nesterov,动量必须为正,阻尼必须等于0.0。默认值:False。
|
||||
- **momentum** (float) - 浮点动量,必须大于等于0.0。默认值:0.0。
|
||||
- **dampening** (float) - 浮点动量阻尼值,必须大于等于0.0。默认值:0.0。
|
||||
- **weight_decay** (float) - 权重衰减(L2 penalty),必须大于等于0。默认值:0.0。
|
||||
- **nesterov** (bool) - 启用Nesterov动量。如果使用Nesterov,动量必须为正,阻尼必须等于0.0。默认值:False。
|
||||
|
||||
.. include:: mindspore.nn.optim_arg_loss_scale.rst
|
||||
|
||||
|
|
Loading…
Reference in New Issue