modify the rst fils 0907

This commit is contained in:
zhangyi 2022-09-07 16:30:36 +08:00
parent 7014e91c14
commit 1c6864bc07
16 changed files with 43 additions and 35 deletions

View File

@ -58,7 +58,11 @@ mindspore.nn.Adagrad
.. include:: mindspore.nn.optim_arg_loss_scale.rst
- **weight_decay** (Union[float, int]) - 要乘以权重的权重衰减值必须大于等于0.0。默认值0.0。
- **weight_decay** (Union[float, int, Cell]) - 要乘以权重的权重衰减值必须大于等于0.0。默认值0.0。
- float固定的权量衰减值。必须等于或大于0。
- int固定的权量衰减值。必须等于或大于0。它将会被转换为float类型。
- Cell权重衰减此时是动态的。在训练期间优化器调用该Cell的实例以获取当前阶段所要使用的权重衰减值。
**输入:**

View File

@ -59,7 +59,7 @@ mindspore.nn.Adam
.. include:: mindspore.nn.optim_group_gc.rst
.. include:: mindspore.nn.optim_group_order.rst
- **learning_rate** (Union[float, Tensor, iterable, LearningRateSchedule]): 默认值1e-3。
- **learning_rate** (Union[float, Tensor, iterable, LearningRateSchedule]) - 默认值1e-3。
.. include:: mindspore.nn.optim_arg_dynamic_lr.rst

View File

@ -5,6 +5,8 @@ mindspore.nn.AvgPool1d
对输入的多维数据进行一维平面上的平均池化运算。
在一个输入Tensor上应用1D average pooling可被视为组成一个1D输入平面。
通常输入的shape为 :math:`(N_{in}, C_{in}, L_{in})` AvgPool1d在 :math:`(L_{in})` 维度上输出区域平均值。
给定 `kernel_size`:math:`k``stride` ,公式定义如下:

View File

@ -31,7 +31,7 @@ mindspore.nn.BatchNorm2d
- **beta_init** (Union[Tensor, str, Initializer, numbers.Number]) - :math:`\beta` 参数的初始化方法。str的值引用自函数 `mindspore.common.initializer`,包括'zeros'、'ones'等。默认值:'zeros'。
- **moving_mean_init** (Union[Tensor, str, Initializer, numbers.Number]) - 动态平均值的初始化方法。str的值引用自函数 `mindspore.common.initializer`,包括'zeros'、'ones'等。默认值:'zeros'。
- **moving_var_init** (Union[Tensor, str, Initializer, numbers.Number]) - 动态方差的初始化方法。str的值引用自函数 `mindspore.common.initializer`,包括'zeros'、'ones'等。默认值:'ones'。
- **use_batch_statistics** (bool)
- **use_batch_statistics** (bool) -
- 如果为True则使用当前批处理数据的平均值和方差值并跟踪运行平均值和运行方差。
- 如果为False则使用指定值的平均值和方差值不跟踪统计值。
- 如果为None则根据训练和验证模式自动设置 `use_batch_statistics` 为True或False。在训练时 `use_batch_statistics会` 设置为True。在验证时 `use_batch_statistics` 会自动设置为False。默认值None。

View File

@ -42,10 +42,10 @@ mindspore.nn.ConfusionMatrixMetric
- **inputs** (tuple) - `y_pred``y``y_pred``y``Tensor` 、列表或数组。
- **y_pred** (ndarray)待计算的输入数据。格式必须为one-hot且第一个维度是batch。
- **y_pred** (ndarray) - 待计算的输入数据。格式必须为one-hot且第一个维度是batch。
`y_pred` 的shape是 :math:`(N, C, ...)`:math:`(N, ...)`
至于分类任务, `y_pred` 的shape应为[BN]其中N大于1。对于分割任务shape应为[BNHW]或[BNHWD]。
- **y** (ndarray)计算度量值的真实值。格式必须为one-hot且第一个维度是batch。`y` 的shape是 :math:`(N, C, ...)`
- **y** (ndarray) - 计算度量值的真实值。格式必须为one-hot且第一个维度是batch。`y` 的shape是 :math:`(N, C, ...)`
**异常:**

View File

@ -18,23 +18,23 @@ mindspore.nn.Conv2d
**参数:**
- **in_channels** (`int`) - Conv2d层输入Tensor的空间维度。
- **out_channels** (`dict`) - Conv2d层输出Tensor的空间维度。
- **kernel_size** (`Union[int, tuple[int]]`) - 指定二维卷积核的高度和宽度。数据类型为整型或两个整型的tuple。一个整数表示卷积核的高度和宽度均为该值。两个整数的tuple分别表示卷积核的高度和宽度。
- **stride** (`Union[int, tuple[int]]`) - 二维卷积核的移动步长。数据类型为整型或两个整型的tuple。一个整数表示在高度和宽度方向的移动步长均为该值。两个整数的tuple分别表示在高度和宽度方向的移动步长。默认值1。
- **pad_mode** (`str`) - 指定填充模式。可选值为"same"、"valid"、"pad"。默认值:"same"。
- **in_channels** (int) - Conv2d层输入Tensor的空间维度。
- **out_channels** (dict) - Conv2d层输出Tensor的空间维度。
- **kernel_size** (Union[int, tuple[int]]) - 指定二维卷积核的高度和宽度。数据类型为整型或两个整型的tuple。一个整数表示卷积核的高度和宽度均为该值。两个整数的tuple分别表示卷积核的高度和宽度。
- **stride** (Union[int, tuple[int]]) - 二维卷积核的移动步长。数据类型为整型或两个整型的tuple。一个整数表示在高度和宽度方向的移动步长均为该值。两个整数的tuple分别表示在高度和宽度方向的移动步长。默认值1。
- **pad_mode** (str) - 指定填充模式。可选值为"same"、"valid"、"pad"。默认值:"same"。
- **same**:输出的高度和宽度分别与输入整除 `stride` 后的值相同。若设置该模式,`padding` 的值必须为0。
- **valid**:在不填充的前提下返回有效计算所得的输出。不满足计算的多余像素会被丢弃。如果设置此模式,则 `padding` 的值必须为0。
- **pad**:对输入进行填充。在输入的高度和宽度方向上填充 `padding` 大小的0。如果设置此模式 `padding` 必须大于或等于0。
- **padding** (`Union[int, tuple[int]]`) - 输入的高度和宽度方向上填充的数量。数据类型为int或包含4个整数的tuple。如果 `padding` 是一个整数,那么上、下、左、右的填充都等于 `padding` 。如果 `padding` 是一个有4个整数的tuple那么上、下、左、右的填充分别等于 `padding[0]``padding[1]``padding[2]``padding[3]` 。值应该要大于等于0默认值0。
- **dilation** (`Union[int, tuple[int]]`) - 二维卷积核膨胀尺寸。数据类型为整型或具有两个整型的tuple。若 :math:`k > 1` 则kernel间隔 `k` 个元素进行采样。垂直和水平方向上的 `k` ,其取值范围分别为[1, H]和[1, W]。默认值1。
- **group** (`int`) - 将过滤器拆分为组, `in_channels``out_channels` 必须可被 `group` 整除。如果组数等于 `in_channels``out_channels` 这个二维卷积层也被称为二维深度卷积层。默认值1.
- **has_bias** (`bool`) - Conv2d层是否添加偏置参数。默认值False。
- **padding** (Union[int, tuple[int]]) - 输入的高度和宽度方向上填充的数量。数据类型为int或包含4个整数的tuple。如果 `padding` 是一个整数,那么上、下、左、右的填充都等于 `padding` 。如果 `padding` 是一个有4个整数的tuple那么上、下、左、右的填充分别等于 `padding[0]``padding[1]``padding[2]``padding[3]` 。值应该要大于等于0默认值0。
- **dilation** (Union[int, tuple[int]]) - 二维卷积核膨胀尺寸。数据类型为整型或具有两个整型的tuple。若 :math:`k > 1` 则kernel间隔 `k` 个元素进行采样。垂直和水平方向上的 `k` ,其取值范围分别为[1, H]和[1, W]。默认值1。
- **group** (int) - 将过滤器拆分为组, `in_channels``out_channels` 必须可被 `group` 整除。如果组数等于 `in_channels``out_channels` 这个二维卷积层也被称为二维深度卷积层。默认值1.
- **has_bias** (bool) - Conv2d层是否添加偏置参数。默认值False。
- **weight_init** (Union[Tensor, str, Initializer, numbers.Number]) - 权重参数的初始化方法。它可以是TensorstrInitializer或numbers.Number。当使用str时可选"TruncatedNormal""Normal""Uniform""HeUniform"和"XavierUniform"分布以及常量"One"和"Zero"分布的值,可接受别名"xavier_uniform""he_uniform""ones"和"zeros"。上述字符串大小写均可。更多细节请参考Initializer的值。默认值"normal"。
- **bias_init** (Union[Tensor, str, Initializer, numbers.Number]) - 偏置参数的初始化方法。可以使用的初始化方法与"weight_init"相同。更多细节请参考Initializer的值。默认值"zeros"。
- **data_format** (`str`) - 数据格式的可选值有"NHWC""NCHW"。默认值:"NCHW"。
- **data_format** (str) - 数据格式的可选值有"NHWC""NCHW"。默认值:"NCHW"。
**输入:**

View File

@ -19,11 +19,11 @@ mindspore.nn.Dense
- **weight_init** (Union[Tensor, str, Initializer, numbers.Number]) - 权重参数的初始化方法。数据类型与 `x` 相同。str的值引用自函数 `initializer`。默认值:'normal'。
- **bias_init** (Union[Tensor, str, Initializer, numbers.Number]) - 偏置参数的初始化方法。数据类型与 `x` 相同。str的值引用自函数 `initializer`。默认值:'zeros'。
- **has_bias** (bool) - 是否使用偏置向量 :math:`\text{bias}` 。默认值True。
- **activation** (Union[str, Cell, Primitive]) - 应用于全连接层输出的激活函数。可指定激活函数名,如'relu'或具体激活函数如mindspore.nn.ReLU()。默认值None。
- **activation** (Union[str, Cell, Primitive, None]) - 应用于全连接层输出的激活函数。可指定激活函数名,如'relu'或具体激活函数如mindspore.nn.ReLU()。默认值None。
**输入:**
- **x** (Tensor) - shape为 :math:`(*,in\_channels)` 的Tensor。 参数中的 `in_channels` 应等于输入中的 :math:`in\_channels`
- **x** (Tensor) - shape为 :math:`(*,in\_channels)` 的Tensor。参数中的 `in_channels` 应等于输入中的 :math:`in\_channels`
**输出:**

View File

@ -3,7 +3,7 @@ mindspore.nn.Dropout2d
.. py:class:: mindspore.nn.Dropout2d(p=0.5)
在训练期间,以服从伯努利分布的概率 `p` 随机将输入Tensor的某些通道归零(对于形状为 `NCHW` 的四维Tensor其通道特征图指的是后两维 `HW` 形状的二维特征图)。
在训练期间,以服从伯努利分布的概率 `p` 随机将输入Tensor的某些通道归零对于形状为 `NCHW` 的四维Tensor其通道特征图指的是后两维 `HW` 形状的二维特征图)。
例如,在批处理输入中 :math:`i\_th` 批, :math:`j\_th` 通道的 `input[i, j]` `2D` Tensor 是一个待处理数据。
每个通道将会独立依据伯努利分布概率 `p` 来确定是否被清零。

View File

@ -3,7 +3,7 @@ mindspore.nn.Dropout3d
.. py:class:: mindspore.nn.Dropout3d(p=0.5)
在训练期间,以服从伯努利分布的概率 `p` 随机将输入Tensor的某些通道归零(对于形状为 `NCDHW``5D` Tensor。
在训练期间,以服从伯努利分布的概率 `p` 随机将输入Tensor的某些通道归零对于形状为 `NCDHW``5D` Tensor。
其通道特征图指的是后三维 `DHW` 形状的三维特征图)。
例如,在批处理输入中 :math:`i\_th` 批, :math:`j\_th` 通道的 `input[i, j]` `3D` Tensor 是一个待处理数据。
每个通道将会独立依据伯努利分布概率 `p` 来确定是否被清零。

View File

@ -22,10 +22,10 @@ mindspore.nn.ExponentialDecayLR
**参数:**
- **learning_rate** (float): 学习率的初始值。
- **decay_rate** (float): 衰减率。
- **decay_steps** (int): 进行衰减的step数。
- **is_stair** (bool): 如果为True则学习率每 `decay_steps` 步衰减一次。默认值False。
- **learning_rate** (float) - 学习率的初始值。
- **decay_rate** (float) - 衰减率。
- **decay_steps** (int) - 进行衰减的step数。
- **is_stair** (bool) - 如果为True则学习率每 `decay_steps` 步衰减一次。默认值False。
**输入:**

View File

@ -5,7 +5,7 @@ mindspore.nn.LogSigmoid
Log Sigmoid激活函数。
按元素计算Log Sigmoid激活函数。
按元素计算Log Sigmoid激活函数。输入是任意格式的Tensor。
Log Sigmoid定义为

View File

@ -27,7 +27,7 @@ mindspore.nn.Momentum
**参数:**
- **params** (Union[list[Parameter], list[dict]]): 必须是 `Parameter` 组成的列表或字典组成的列表。当列表元素是字典时,字典的键可以是"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params"
- **params** (Union[list[Parameter], list[dict]]) - 必须是 `Parameter` 组成的列表或字典组成的列表。当列表元素是字典时,字典的键可以是"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params"
.. include:: mindspore.nn.optim_group_param.rst
.. include:: mindspore.nn.optim_group_lr.rst
@ -35,7 +35,7 @@ mindspore.nn.Momentum
.. include:: mindspore.nn.optim_group_gc.rst
.. include:: mindspore.nn.optim_group_order.rst
- **learning_rate** (Union[float, int, Tensor, Iterable, LearningRateSchedule]):
- **learning_rate** (Union[float, int, Tensor, Iterable, LearningRateSchedule]) -
.. include:: mindspore.nn.optim_arg_dynamic_lr.rst

View File

@ -12,7 +12,7 @@ mindspore.nn.Optimizer
**参数:**
- **learning_rate** (Union[float, int, Tensor, Iterable, LearningRateSchedule]) -
- **learning_rate** (Union[float, int, Tensor, Iterable, LearningRateSchedule]) -
.. include:: mindspore.nn.optim_arg_dynamic_lr.rst

View File

@ -5,6 +5,8 @@ mindspore.nn.PReLU
PReLU激活层PReLU Activation Operator
逐元素应用PReLU function。
公式定义为:
.. math::

View File

@ -12,7 +12,7 @@ mindspore.nn.Perplexity
**参数:**
- **ignore_label** (int) - 计数时要忽略的无效标签的索引。如果设置为None它将包括所有条目。默认值None。
- **ignore_label** (Union[int, None]) - 计数时要忽略的无效标签的索引。如果设置为None它将包括所有条目。默认值None。
.. py:method:: clear()

View File

@ -30,24 +30,24 @@ mindspore.nn.SGD
**参数:**
- **params** (Union[list[Parameter], list[dict]]):`params` 为会更新的 `Parameter` 列表时,`params` 中的元素必须为类 `Parameter`。当 `params``dict` 列表时,"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params"为可以解析的键。
- **params** (Union[list[Parameter], list[dict]]) -`params` 为会更新的 `Parameter` 列表时,`params` 中的元素必须为类 `Parameter`。当 `params``dict` 列表时,"params"、"lr"、"weight_decay"、"grad_centralization"和"order_params"为可以解析的键。
.. include:: mindspore.nn.optim_group_param.rst
.. include:: mindspore.nn.optim_group_lr.rst
- **weight_decay** : 目前不支持通过参数分组使用不同的weight_decay。
- **weight_decay** - 目前不支持通过参数分组使用不同的weight_decay。
.. include:: mindspore.nn.optim_group_gc.rst
.. include:: mindspore.nn.optim_group_order.rst
- **learning_rate** (Union[float, int, Tensor, Iterable, LearningRateSchedule]): 默认值0.1。
- **learning_rate** (Union[float, int, Tensor, Iterable, LearningRateSchedule]) - 默认值0.1。
.. include:: mindspore.nn.optim_arg_dynamic_lr.rst
- **momentum** (float): 浮点动量必须大于等于0.0。默认值0.0。
- **dampening** (float): 浮点动量阻尼值必须大于等于0.0。默认值0.0。
- **weight_decay** (float): 权重衰减L2 penalty必须大于等于0。默认值0.0。
- **nesterov** (bool): 启用Nesterov动量。如果使用Nesterov动量必须为正阻尼必须等于0.0。默认值False。
- **momentum** (float) - 浮点动量必须大于等于0.0。默认值0.0。
- **dampening** (float) - 浮点动量阻尼值必须大于等于0.0。默认值0.0。
- **weight_decay** (float) - 权重衰减L2 penalty必须大于等于0。默认值0.0。
- **nesterov** (bool) - 启用Nesterov动量。如果使用Nesterov动量必须为正阻尼必须等于0.0。默认值False。
.. include:: mindspore.nn.optim_arg_loss_scale.rst