forked from mindspore-Ecosystem/mindspore
!31907 optimizes the documentation of chinese API of BCELoss,BatchNorm1d,OneHot,etc
Merge pull request !31907 from zhangfanghe/code_docs_zfh_325
This commit is contained in:
commit
0c916e7370
|
@ -27,8 +27,8 @@ mindspore.nn.BCELoss
|
|||
|
||||
**参数:**
|
||||
|
||||
- **weight** (Tensor, optional) - 指定每个批次二值交叉熵的权重。与输入数据的shape和数据类型相同。默认值:None。
|
||||
- **reduction** (str) - 指定应用于输出结果的计算方式。可选值有:'mean','sum',或'none'。默认值:'none'。
|
||||
- **weight** (Tensor, 可选) - 指定每个批次二值交叉熵的权重。与输入数据的shape和数据类型相同。默认值:None。
|
||||
- **reduction** (str) - 指定输出结果的计算方式。可选值有:'mean','sum',或'none'。默认值:'none'。
|
||||
|
||||
**输入:**
|
||||
|
||||
|
|
|
@ -3,9 +3,9 @@ mindspore.nn.BatchNorm1d
|
|||
|
||||
.. py:class:: mindspore.nn.BatchNorm1d(num_features,eps=1e-5,momentum=0.9,affine=True,gamma_init='ones',beta_init='zeros',moving_mean_init='zeros',moving_var_init='ones',use_batch_statistics=None)
|
||||
|
||||
对输入的二维数据进行批归一化层(Batch Normalization Layer)。
|
||||
对输入的二维数据进行批归一化(Batch Normalization Layer)。
|
||||
|
||||
归一化在卷积网络中被广泛的应用。此层在二维输入(mini-batch 一维输入)上应用批归一化,避免内部协变量偏移。请见论文 `Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift <https://arxiv.org/abs/1502.03167>`_ 。
|
||||
在二维输入(mini-batch 一维输入)上应用批归一化,避免内部协变量偏移。归一化在卷积网络中被广泛的应用。请见论文 `Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift <https://arxiv.org/abs/1502.03167>`_ 。
|
||||
|
||||
使用mini-batch数据和学习参数进行训练,计算公式如下。
|
||||
|
||||
|
@ -18,13 +18,13 @@ mindspore.nn.BatchNorm1d
|
|||
**参数:**
|
||||
|
||||
- **num_features** (int) - 指定输入Tensor的通道数量,输入Tensor的size为(N, C)。
|
||||
- **eps** (float) - 确保数值稳定加在分母上的值。默认值:1e-5。
|
||||
- **eps** (float) - 加在分母上的值,以确保数值稳定。默认值:1e-5。
|
||||
- **momentum** (float) - 动态均值和动态方差所使用的动量。默认值:0.9。
|
||||
- **affine** (bool) - bool类型。设置为True时,可学习到gama和beta值。默认值:True。
|
||||
- **gamma_init** (Union[Tensor, str, Initializer, numbers.Number]) - gama参数的初始化方法。str的值引用自函数 `initializer` ,包括'zeros'、'ones'等。默认值:'ones'。
|
||||
- **beta_init** (Union[Tensor, str, Initializer, numbers.Number]) - beta参数的初始化方法。str的值引用自函数 `initializer` ,包括'zeros'、'ones'等。默认值:'zeros'。
|
||||
- **moving_mean_init** (Union[Tensor, str, Initializer, numbers.Number]) - 动态平均值的初始化方法。str的值引用自函数 `initializer` ,包括'zeros'、'ones'等。默认值:'zeros'。
|
||||
- **moving_var_init** (Union[Tensor, str, Initializer, numbers.Number]) - 动态方差的初始化方法。str的值引用自函数 `initializer` ,包括'zeros'、'ones'等。默认值:'ones'。
|
||||
- **gamma_init** (Union[Tensor, str, Initializer, numbers.Number]) - gamma参数的初始化方法。str的值引用自函数 `mindspore.common.initializer` ,包括'zeros'、'ones'等。默认值:'ones'。
|
||||
- **beta_init** (Union[Tensor, str, Initializer, numbers.Number]) - beta参数的初始化方法。str的值引用自函数 `mindspore.common.initializer` ,包括'zeros'、'ones'等。默认值:'zeros'。
|
||||
- **moving_mean_init** (Union[Tensor, str, Initializer, numbers.Number]) - 动态平均值的初始化方法。str的值引用自函数 `mindspore.common.initializer` ,包括'zeros'、'ones'等。默认值:'zeros'。
|
||||
- **moving_var_init** (Union[Tensor, str, Initializer, numbers.Number]) - 动态方差的初始化方法。str的值引用自函数 `mindspore.common.initializer` ,包括'zeros'、'ones'等。默认值:'ones'。
|
||||
- **use_batch_statistics** (bool) - 如果为True,则使用当前批次数据的平均值和方差值。如果为False,则使用指定的平均值和方差值。如果为None,训练时,将使用当前批次数据的均值和方差,并更新动态均值和方差,验证过程将直接使用动态均值和方差。默认值:None。
|
||||
|
||||
**输入:**
|
||||
|
|
|
@ -3,9 +3,9 @@ mindspore.nn.BatchNorm2d
|
|||
|
||||
.. py:class:: mindspore.nn.BatchNorm2d(num_features, eps=1e-5, momentum=0.9, affine=True, gamma_init='ones', beta_init='zeros', moving_mean_init='zeros', moving_var_init='ones', use_batch_statistics=None, data_format='NCHW')
|
||||
|
||||
对输入的四维数据进行批归一化层(Batch Normalization Layer)。
|
||||
对输入的四维数据进行批归一化(Batch Normalization Layer)。
|
||||
|
||||
批归一化广泛应用于卷积网络中。此层在四维输入(具有额外通道维度的小批量二维输入)上应用批归一化处理,以避免内部协变量偏移。请见论文 `Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift <https://arxiv.org/abs/1502.03167>`_ 。使用mini-batch数据和学习参数进行训练,这些参数见以下公式。
|
||||
在四维输入(具有额外通道维度的小批量二维输入)上应用批归一化处理,以避免内部协变量偏移。批归一化广泛应用于卷积网络中。请见论文 `Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift <https://arxiv.org/abs/1502.03167>`_ 。使用mini-batch数据和学习参数进行训练,这些参数见以下公式。
|
||||
|
||||
.. math::
|
||||
y = \frac{x - \mathrm{E}[x]}{\sqrt{\mathrm{Var}[x] + \epsilon}} * \gamma + \beta
|
||||
|
@ -13,7 +13,7 @@ mindspore.nn.BatchNorm2d
|
|||
.. note::
|
||||
BatchNorm的实现在图模式和PyNative模式下是不同的,因此不建议在网络初始化后更改其模式。
|
||||
|
||||
需要注意的是,更新moving_mean和moving_var的公式为:
|
||||
需要注意的是,更新 `moving_mean` 和 `moving_var` 的公式为:
|
||||
|
||||
.. math::
|
||||
\text{moving_mean}=\text{moving_mean*momentum}+μ_β\text{*(1−momentum)}\\
|
||||
|
@ -24,13 +24,13 @@ mindspore.nn.BatchNorm2d
|
|||
**参数:**
|
||||
|
||||
- **num_features** (int) - 指定输入Tensor的通道数量,输入Tensor的size为(N, C, H, W)。
|
||||
- **eps** (float) - 确保数值稳定加在分母上的值。默认值:1e-5。
|
||||
- **eps** (float) - 加在分母上的值,以确保数值稳定。默认值:1e-5。
|
||||
- **momentum** (float) - 动态均值和动态方差所使用的动量。默认值:0.9。
|
||||
- **affine** (bool) - bool类型。设置为True时,可学习gama和beta值。默认值:True。
|
||||
- **gamma_init** (Union[Tensor, str, Initializer, numbers.Number]) - gama参数的初始化方法。str的值引用自函数 `initializer`,包括'zeros'、'ones'等。默认值:'ones'。
|
||||
- **beta_init** (Union[Tensor, str, Initializer, numbers.Number]) - beta参数的初始化方法。str的值引用自函数 `initializer`,包括'zeros'、'ones'等。默认值:'zeros'。
|
||||
- **moving_mean_init** (Union[Tensor, str, Initializer, numbers.Number]) - 动态平均值的初始化方法。str的值引用自函数 `initializer`,包括'zeros'、'ones'等。默认值:'zeros'。
|
||||
- **moving_var_init** (Union[Tensor, str, Initializer, numbers.Number]) - 动态方差的初始化方法。str的值引用自函数 `initializer`,包括'zeros'、'ones'等。默认值:'ones'。
|
||||
- **gamma_init** (Union[Tensor, str, Initializer, numbers.Number]) - gamma参数的初始化方法。str的值引用自函数 `mindspore.common.initializer`,包括'zeros'、'ones'等。默认值:'ones'。
|
||||
- **beta_init** (Union[Tensor, str, Initializer, numbers.Number]) - beta参数的初始化方法。str的值引用自函数 `mindspore.common.initializer`,包括'zeros'、'ones'等。默认值:'zeros'。
|
||||
- **moving_mean_init** (Union[Tensor, str, Initializer, numbers.Number]) - 动态平均值的初始化方法。str的值引用自函数 `mindspore.common.initializer`,包括'zeros'、'ones'等。默认值:'zeros'。
|
||||
- **moving_var_init** (Union[Tensor, str, Initializer, numbers.Number]) - 动态方差的初始化方法。str的值引用自函数 `mindspore.common.initializer`,包括'zeros'、'ones'等。默认值:'ones'。
|
||||
- **use_batch_statistics** (bool) - 如果为True,则使用当前批处理数据的平均值和方差值,并跟踪运行平均值和运行方差。如果为False,则使用指定值的平均值和方差值,不跟踪统计值。如果为None,则根据训练和验证模式自动设置use_batch_statistics为True或False。在训练时,use_batch_statistics会设置为True。在验证时,use_batch_statistics会自动设置为False。默认值:None。
|
||||
- **data_format** (str) - 数据格式可为'NHWC'或'NCHW'。默认值:'NCHW'。
|
||||
|
||||
|
|
|
@ -3,9 +3,9 @@ mindspore.nn.BatchNorm3d
|
|||
|
||||
.. py:class:: mindspore.nn.BatchNorm3d(num_features, eps=1e-5, momentum=0.9, affine=True, gamma_init='ones', beta_init='zeros', moving_mean_init='zeros', moving_var_init='ones', use_batch_statistics=None, data_format='NCDHW')
|
||||
|
||||
对输入的五维数据进行批归一化层(Batch Normalization Layer)。
|
||||
对输入的五维数据进行批归一化(Batch Normalization Layer)。
|
||||
|
||||
归一化在卷积网络中得到了广泛的应用。该层在5维输入(带有附加通道维度的mini-batch 三维输入)上应用批归一化,避免内部协变量偏移。
|
||||
在五维输入(带有附加通道维度的mini-batch 三维输入)上应用批归一化,避免内部协变量偏移。 归一化在卷积网络中得到了广泛的应用。
|
||||
|
||||
.. math::
|
||||
y = \frac{x - \mathrm{E}[x]}{\sqrt{\mathrm{Var}[x] + \epsilon}} * \gamma + \beta
|
||||
|
@ -13,28 +13,28 @@ mindspore.nn.BatchNorm3d
|
|||
.. note::
|
||||
BatchNorm的实现在图模式和PyNative模式下是不同的,因此不建议在网络初始化后更改其模式。
|
||||
|
||||
需要注意的是,更新running_mean和running_var的公式为 :math:`\hat{x}_\text{new} = (1 - \text{momentum}) \times x_t + \text{momentum} \times \hat{x}` ,其中 :math:`\Hat{x}` 是估计的统计量, :math:`x_t` 是新的观察值。
|
||||
需要注意的是,更新running_mean和running_var的公式为 :math:`\hat{x}_\text{new} = (1 - \text{momentum}) \times x_t + \text{momentum} \times \hat{x}` ,其中 :math:`\hat{x}` 是估计的统计量, :math:`x_t` 是新的观察值。
|
||||
|
||||
**参数:**
|
||||
|
||||
- **num_features** (int) - 指定输入Tensor的通道数量。输入Tensor的size为(N, C, D, H, W)。
|
||||
- **eps** (float) - 确保数值稳定加在分母上的值。默认值:1e-5。
|
||||
- **eps** (float) - 加在分母上的值,以确保数值稳定。默认值:1e-5。
|
||||
- **momentum** (float) - 动态均值和动态方差所使用的动量。默认值:0.9。
|
||||
- **affine** (bool) - bool类型。设置为True时,可以学习gama和beta。默认值:True。
|
||||
- **gamma_init** (Union[Tensor, str, Initializer, numbers.Number]) - gama参数的初始化方法。str的值引用自函数 `initializer` ,包括'zeros'、'ones'等。默认值:'ones'。
|
||||
- **beta_init** (Union[Tensor, str, Initializer, numbers.Number]) - beta参数的初始化方法。str的值引用自函数 `initializer` ,包括'zeros'、'ones'等。默认值:'zeros'。
|
||||
- **moving_mean_init** (Union[Tensor, str, Initializer, numbers.Number]) - 动态均值和动态方差所使用的动量。平均值的初始化方法。str的值引用自函数 `initializer` ,包括'zeros'、'ones'等。默认值:'zeros'。
|
||||
- **moving_var_init** (Union[Tensor, str, Initializer, numbers.Number]) - 动态均值和动态方差所使用的动量。方差的初始化方法。str的值引用自函数 `initializer` ,包括'zeros'、'ones'等。默认值:'ones'。
|
||||
- **gamma_init** (Union[Tensor, str, Initializer, numbers.Number]) - gamma参数的初始化方法。str的值引用自函数 `mindspore.common.initializer` ,包括'zeros'、'ones'等。默认值:'ones'。
|
||||
- **beta_init** (Union[Tensor, str, Initializer, numbers.Number]) - beta参数的初始化方法。str的值引用自函数 `mindspore.common.initializer` ,包括'zeros'、'ones'等。默认值:'zeros'。
|
||||
- **moving_mean_init** (Union[Tensor, str, Initializer, numbers.Number]) - 动态均值和动态方差所使用的动量。平均值的初始化方法。str的值引用自函数 `mindspore.common.initializer` ,包括'zeros'、'ones'等。默认值:'zeros'。
|
||||
- **moving_var_init** (Union[Tensor, str, Initializer, numbers.Number]) - 动态均值和动态方差所使用的动量。方差的初始化方法。str的值引用自函数 `mindspore.common.initializer` ,包括'zeros'、'ones'等。默认值:'ones'。
|
||||
- **use_batch_statistics** (bool) - 如果为True,则使用当前批次数据的平均值和方差值。如果为False,则使用指定的平均值和方差值。如果为None,训练时,将使用当前批次数据的均值和方差,并更新动态均值和方差,验证过程将直接使用动态均值和方差。默认值:None。
|
||||
- **data_format** (str) - 数据格式的可选值为'NCDHW'。默认值:'NCDHW'。
|
||||
|
||||
**输入:**
|
||||
|
||||
- **x** (Tensor) - 输入shape为 :math:`(N, C_{in}, D_{in}, H_{in}, W_{in})` 的tensor。
|
||||
- **x** (Tensor) - 输入shape为 :math:`(N, C_{in}, D_{in}, H_{in}, W_{in})` 的Tensor。
|
||||
|
||||
**输出:**
|
||||
|
||||
Tensor,归一化后的tensor,shape为 `(N, C_{out}, D_{out},H_{out}, W_{out})` 。
|
||||
Tensor,归一化后的Tensor,shape为 `(N, C_{out}, D_{out},H_{out}, W_{out})` 。
|
||||
|
||||
**异常:**
|
||||
|
||||
|
|
|
@ -10,7 +10,7 @@ mindspore.nn.Dense
|
|||
.. math::
|
||||
\text{outputs} = \text{activation}(\text{X} * \text{kernel} + \text{bias}),
|
||||
|
||||
其中 :math:`X` 是输入Tensor, :math:`\text{activation}` 是激活函数(如果传递的话), :math:`\text{kernel}` 是一个权重矩阵,其数据类型与 :math:`X` 相同, :math:`\text{bias}` 是一个偏置向量,其数据类型与 :math:`X` 相同(仅当has_bias为True时)。
|
||||
其中 :math:`X` 是输入Tensor, :math:`\text{activation}` 是激活函数, :math:`\text{kernel}` 是一个权重矩阵,其数据类型与 :math:`X` 相同, :math:`\text{bias}` 是一个偏置向量,其数据类型与 :math:`X` 相同(仅当has_bias为True时)。
|
||||
|
||||
**参数:**
|
||||
|
||||
|
@ -18,12 +18,12 @@ mindspore.nn.Dense
|
|||
- **out_channels** (int) - Dense层输出Tensor的空间维度。
|
||||
- **weight_init** (Union[Tensor, str, Initializer, numbers.Number]) - 权重参数的初始化方法。数据类型与 `x` 相同。str的值引用自函数 `initializer`。默认值:'normal'。
|
||||
- **bias_init** (Union[Tensor, str, Initializer, numbers.Number]) - 偏置参数的初始化方法。数据类型与 `x` 相同。str的值引用自函数 `initializer`。默认值:'zeros'。
|
||||
- **has_bias** (bool) - 指定图层是否使用偏置向量。默认值:True。
|
||||
- **has_bias** (bool) - 是否使用偏置向量。默认值:True。
|
||||
- **activation** (Union[str, Cell, Primitive]) - 应用于全连接层输出的激活函数,例如‘ReLU’。默认值:None。
|
||||
|
||||
**输入:**
|
||||
|
||||
- **x** (Tensor) - shape为 :math:`(*,in\_channels)` 的Tensor。 `Args` 中的 `in_channels` 应等于 `Inputs` 中的 :math:`in\_channels` 。
|
||||
- **x** (Tensor) - shape为 :math:`(*,in\_channels)` 的Tensor。 参数中的 `in_channels` 应等于输入中的 :math:`in\_channels` 。
|
||||
|
||||
**输出:**
|
||||
|
||||
|
|
|
@ -5,7 +5,7 @@ mindspore.nn.FocalLoss
|
|||
|
||||
FocalLoss函数。
|
||||
|
||||
解决了类别不平衡和分类难度差异的问题。
|
||||
解决了类别不平衡的问题。
|
||||
|
||||
论文 `Focal Loss for Dense Object Detection <https://arxiv.org/pdf/1708.02002.pdf>`_ 中提出的loss函数提高了图像目标检测的效果。
|
||||
|
||||
|
@ -18,12 +18,12 @@ mindspore.nn.FocalLoss
|
|||
|
||||
- **gamma** (float) - gamma用于调整Focal Loss的权重曲线的陡峭程度。默认值:2.0。
|
||||
- **weight** (Union[Tensor, None]) - Focal Loss的权重,维度为1。如果为None,则不使用权重。默认值:None。
|
||||
- **reduction** (str) - 应用于loss的计算方式。取值为"mean","sum",或"none"。默认值:"mean"。
|
||||
- **reduction** (str) - loss的计算方式。取值为"mean","sum",或"none"。默认值:"mean"。
|
||||
|
||||
**输入:**
|
||||
|
||||
- **logits** (Tensor) - shape为 :math:`(B, C)` 、 :math:`(B, C, H)` 、或 :math:`(B, C, H, W)` 的Tensor,其中 :math:`C` 是分类的数量,值大于1。如果shape为 :math:`(B, C, H, W)` 或 :math:`(B, C, H)` ,则 :math:`H` 或 :math:`H` 和 :math:`W` 的乘积应与 `labels` 的相同。
|
||||
- **labels** (Tensor) - shape为 :math:`(B, C)` 、 :math:`(B, C, H)` 、或 :math:`(B, C, H, W)` 的Tensor, :math:`C` 的值为1,或者与 `logits` 的 :math:`C` 相同。如果 :math:`C` 不为1,则shape应与 `logits` 的shape相同,其中 :math:`C` 是分类的数量。如果shape为 :math:`(B, C, H, W)` 或 :math:`(B, C, H)` ,则 :math:`H` 或 :math:`H` 和 :math:`W` 的乘积应与 `logits` 相同。
|
||||
- **logits** (Tensor) - shape为 :math:`(N, C)` 、 :math:`(N, C, H)` 、或 :math:`(N, C, H, W)` 的Tensor,其中 :math:`C` 是分类的数量,值大于1。如果shape为 :math:`(N, C, H, W)` 或 :math:`(N, C, H)` ,则 :math:`H` 或 :math:`H` 和 :math:`W` 的乘积应与 `labels` 的相同。
|
||||
- **labels** (Tensor) - shape为 :math:`(N, C)` 、 :math:`(N, C, H)` 、或 :math:`(N, C, H, W)` 的Tensor, :math:`C` 的值为1,或者与 `logits` 的 :math:`C` 相同。如果 :math:`C` 不为1,则shape应与 `logits` 的shape相同,其中 :math:`C` 是分类的数量。如果shape为 :math:`(N, C, H, W)` 或 :math:`(N, C, H)` ,则 :math:`H` 或 :math:`H` 和 :math:`W` 的乘积应与 `logits` 相同。
|
||||
|
||||
**输出:**
|
||||
|
||||
|
|
|
@ -5,9 +5,9 @@ mindspore.nn.GroupNorm
|
|||
|
||||
在mini-batch输入上进行组归一化。
|
||||
|
||||
近来,组归一化在递归神经网络中得到了广泛的应用。适用单个训练用例的mini-batch输入归一化,详见论文 `Group Normalization <https://arxiv.org/pdf/1803.08494.pdf>`_ 。
|
||||
适用单个训练用例的mini-batch输入归一化,详见论文 `Group Normalization <https://arxiv.org/pdf/1803.08494.pdf>`_ 。
|
||||
|
||||
把通道划分为组,然后计算每一组之内的均值和方差,已进行归一化,在batch size上表现非常稳定。
|
||||
把通道划分为组,然后计算每一组之内的均值和方差,以进行归一化。
|
||||
|
||||
公式如下,
|
||||
|
||||
|
@ -20,12 +20,12 @@ mindspore.nn.GroupNorm
|
|||
- **num_channels** (int) - 输入的通道数。
|
||||
- **eps** (float) - 添加到分母中的值,以确保数值稳定。默认值:1e-5。
|
||||
- **affine** (bool) - Bool类型,当设置为True时,给该层添加可学习的仿射变换参数,即gama与beta。默认值:True。
|
||||
- **gamma_init** (Union[Tensor, str, Initializer, numbers.Number]) - gama参数的初始化方法。str的值引用自函数 `initializer` ,包括'zeros'、'ones'、'xavier_uniform'、'he_uniform'等。默认值:'ones'。如果gamma_init是tensor,则shape必须为[num_channels]。
|
||||
- **beta_init** (Union[Tensor, str, Initializer, numbers.Number]) - beta参数的初始化方法。str的值引用自函数 `initializer` ,包括'zeros'、'ones'、'xavier_uniform'、'he_uniform'等。默认值:'zeros'如果gamma_init是tensor,则shape必须为[num_channels]。
|
||||
- **gamma_init** (Union[Tensor, str, Initializer, numbers.Number]) - gamma参数的初始化方法。str的值引用自函数 `mindspore.common.initializer` ,包括'zeros'、'ones'、'xavier_uniform'、'he_uniform'等。默认值:'ones'。如果gamma_init是Tensor,则shape必须为[num_channels]。
|
||||
- **beta_init** (Union[Tensor, str, Initializer, numbers.Number]) - beta参数的初始化方法。str的值引用自函数 `mindspore.common.initializer` ,包括'zeros'、'ones'、'xavier_uniform'、'he_uniform'等。默认值:'zeros'如果gamma_init是Tensor,则shape必须为[num_channels]。
|
||||
|
||||
**输入:**
|
||||
|
||||
- **x** (Tensor)** - shape为[N, C, H, W]的特征输入。
|
||||
- **x** (Tensor) - shape为 `(N, C, H, W)` 的特征输入。
|
||||
|
||||
**输出:**
|
||||
|
||||
|
|
|
@ -3,11 +3,13 @@ mindspore.nn.L1Regularizer
|
|||
|
||||
.. py:class:: mindspore.nn.L1Regularizer(scale)
|
||||
|
||||
对权重计算L1正则化的值。
|
||||
对权重计算L1正则化。
|
||||
|
||||
.. math::
|
||||
\text{loss}=\lambda * \text{reduce_sum}(\text{abs}(\omega))
|
||||
|
||||
:math:`\lambda` 代表 `scale` 。
|
||||
|
||||
.. note::
|
||||
正则化因子应为大于0。
|
||||
|
||||
|
|
|
@ -21,7 +21,7 @@ mindspore.nn.MaxPool1d
|
|||
- **stride** (int) - 池化操作的移动步长,数据类型为整型。默认值:1。
|
||||
- **pad_mode** (str) - 指定池化填充模式,取值为"same"或"valid",不区分大小写。默认值:"valid"。
|
||||
|
||||
- **same** - 输出的宽度于输入整数 `stride` 后的值相同。
|
||||
- **same** - 输出的宽度与输入整数 `stride` 后的值相同。
|
||||
- **valid** - 在不填充的前提下返回有效计算所得的输出。不满足计算的多余像素会被丢弃。
|
||||
|
||||
**输入:**
|
||||
|
@ -30,7 +30,7 @@ mindspore.nn.MaxPool1d
|
|||
|
||||
**输出:**
|
||||
|
||||
shape为 :math:`(N, C, L_{out}))` 的Tensor。
|
||||
shape为 :math:`(N, C, L_{out})` 的Tensor。
|
||||
|
||||
**异常:**
|
||||
|
||||
|
|
|
@ -3,9 +3,9 @@ mindspore.nn.OneHot
|
|||
|
||||
.. py:class:: mindspore.nn.OneHot(axis=-1, depth=1, on_value=1.0, off_value=0.0, dtype=mstype.float32)
|
||||
|
||||
返回一个one-hot类型的Tensor。
|
||||
对输入进行one-hot编码并返回。
|
||||
|
||||
参数 `indices` 表示的位置取值为on_value,其他所有位置取值为off_value。
|
||||
输入的 `indices` 表示的位置取值为on_value,其他所有位置取值为off_value。
|
||||
|
||||
.. note::
|
||||
如果indices是n阶Tensor,那么返回的one-hot Tensor则为n+1阶Tensor。
|
||||
|
@ -32,11 +32,11 @@ mindspore.nn.OneHot
|
|||
|
||||
**参数:**
|
||||
|
||||
- **axis** (int) - 指定第几阶为depth维one-hot向量,如果轴为-1,则 features x depth,如果轴为0,则 depth x features。默认值:-1。
|
||||
- **depth** (int) - 定义one-hot向量的维度深度。默认值:1。
|
||||
- **on_value** (float) - one-hot值,当indices[j] = i时,填充output[i][j]的取值。默认值:1.0。
|
||||
- **off_value** (float) - 非one-hot值,当indices[j] != i时,填充output[i][j]的取值。默认值:0.0。
|
||||
- **dtype** (:class:`mindspore.dtype`) - 是'on_value'和'off_value'的数据类型,而不是索引的数据类型。默认值:mindspore.float32。
|
||||
- **axis** (int) - 指定第几阶为 `depth` 维one-hot向量,如果轴为-1,则 `features * depth` ,如果轴为0,则 `depth * features` 。默认值:-1。
|
||||
- **depth** (int) - 定义one-hot向量的深度。默认值:1。
|
||||
- **on_value** (float) - one-hot值,当 `indices[j] = i` 时,填充output[i][j]的取值。默认值:1.0。
|
||||
- **off_value** (float) - 非one-hot值,当 `indices[j] != i` 时,填充output[i][j]的取值。默认值:0.0。
|
||||
- **dtype** (:class:`mindspore.dtype`) - 是'on_value'和'off_value'的数据类型,而不是输入的数据类型。默认值:mindspore.float32。
|
||||
|
||||
**输入:**
|
||||
|
||||
|
@ -44,11 +44,11 @@ mindspore.nn.OneHot
|
|||
|
||||
**输出:**
|
||||
|
||||
Tensor,数据类型 `dtype` 的独热Tensor,维度为 `axis` 扩展到 `depth`,并填充on_value和off_value。`Outputs` 的维度等于 `indices` 的维度加1。
|
||||
Tensor,输出Tensor,数据类型 `dtype` 的one-hot Tensor,维度为 `axis` 扩展到 `depth`,并填充on_value和off_value。`Outputs` 的维度等于 `indices` 的维度加1。
|
||||
|
||||
**异常:**
|
||||
|
||||
- **TypeError** - `axis` 或 `depth` 不是整数。
|
||||
- **TypeError** - `axis` 或 `depth` 不是int。
|
||||
- **TypeError** - `indices` 的dtype既不是int32,也不是int64。
|
||||
- **ValueError** - 如果 `axis` 不在范围[-1, len(indices_shape)]内。
|
||||
- **ValueError** - `depth` 小于0。
|
|
@ -45,6 +45,8 @@ class L1Regularizer(Cell):
|
|||
.. math::
|
||||
\text{loss}=\lambda * \text{reduce_sum}(\text{abs}(\omega))
|
||||
|
||||
where :math:`\lambda` is `scale` .
|
||||
|
||||
Note:
|
||||
scale(regularization factor) should be a number which greater than 0
|
||||
|
||||
|
|
|
@ -1374,13 +1374,13 @@ class FocalLoss(LossBase):
|
|||
If "none", do not perform reduction. Default: "mean".
|
||||
|
||||
Inputs:
|
||||
- **logits** (Tensor) - Tensor of shape should be :math:`(B, C)` or :math:`(B, C, H)` or :math:`(B, C, H, W)`.
|
||||
Where :math:`C` is the number of classes. Its value is greater than 1. If the shape is :math:`(B, C, H, W)`
|
||||
or :math:`(B, C, H)`, the :math:`H` or product of :math:`H` and :math:`W` should be the same as labels.
|
||||
- **labels** (Tensor) - Tensor of shape should be :math:`(B, C)` or :math:`(B, C, H)` or :math:`(B, C, H, W)`.
|
||||
- **logits** (Tensor) - Tensor of shape should be :math:`(N, C)` or :math:`(N, C, H)` or :math:`(N, C, H, W)`.
|
||||
Where :math:`C` is the number of classes. Its value is greater than 1. If the shape is :math:`(N, C, H, W)`
|
||||
or :math:`(N, C, H)`, the :math:`H` or product of :math:`H` and :math:`W` should be the same as labels.
|
||||
- **labels** (Tensor) - Tensor of shape should be :math:`(N, C)` or :math:`(N, C, H)` or :math:`(N, C, H, W)`.
|
||||
The value of :math:`C` is 1 or it needs to be the same as predict's :math:`C`. If :math:`C` is not 1,
|
||||
the shape of target should be the same as that of predict, where :math:`C` is the number of classes.
|
||||
If the shape is :math:`(B, C, H, W)` or :math:`(B, C, H)`, the :math:`H` or product of :math:`H`
|
||||
If the shape is :math:`(N, C, H, W)` or :math:`(N, C, H)`, the :math:`H` or product of :math:`H`
|
||||
and :math:`W` should be the same as logits. The value of `labels` is should be in the
|
||||
range [-:math:`C`, :math:`C`). Where :math:`C` is the number of classes in logits.
|
||||
|
||||
|
|
Loading…
Reference in New Issue