!31907 optimizes the documentation of chinese API of BCELoss,BatchNorm1d,OneHot,etc

Merge pull request !31907 from zhangfanghe/code_docs_zfh_325
This commit is contained in:
i-robot 2022-03-26 01:05:43 +00:00 committed by Gitee
commit 0c916e7370
No known key found for this signature in database
GPG Key ID: 173E9B9CA92EEF8F
12 changed files with 60 additions and 56 deletions

View File

@ -27,8 +27,8 @@ mindspore.nn.BCELoss
**参数:**
- **weight** (Tensor, optional) - 指定每个批次二值交叉熵的权重。与输入数据的shape和数据类型相同。默认值None。
- **reduction** (str) - 指定应用于输出结果的计算方式。可选值有:'mean''sum',或'none'。默认值:'none'。
- **weight** (Tensor, 可选) - 指定每个批次二值交叉熵的权重。与输入数据的shape和数据类型相同。默认值None。
- **reduction** (str) - 指定输出结果的计算方式。可选值有:'mean''sum',或'none'。默认值:'none'。
**输入:**

View File

@ -3,9 +3,9 @@ mindspore.nn.BatchNorm1d
.. py:class:: mindspore.nn.BatchNorm1d(num_features,eps=1e-5,momentum=0.9,affine=True,gamma_init='ones',beta_init='zeros',moving_mean_init='zeros',moving_var_init='ones',use_batch_statistics=None)
对输入的二维数据进行批归一化(Batch Normalization Layer)。
对输入的二维数据进行批归一化(Batch Normalization Layer)。
归一化在卷积网络中被广泛的应用。此层在二维输入mini-batch 一维输入)上应用批归一化,避免内部协变量偏移。请见论文 `Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift <https://arxiv.org/abs/1502.03167>`_
在二维输入mini-batch 一维输入)上应用批归一化,避免内部协变量偏移。归一化在卷积网络中被广泛的应用。请见论文 `Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift <https://arxiv.org/abs/1502.03167>`_
使用mini-batch数据和学习参数进行训练计算公式如下。
@ -18,13 +18,13 @@ mindspore.nn.BatchNorm1d
**参数:**
- **num_features** (int) - 指定输入Tensor的通道数量输入Tensor的size为(N, C)。
- **eps** (float) - 确保数值稳定加在分母上的值。默认值1e-5。
- **eps** (float) - 加在分母上的值,以确保数值稳定。默认值1e-5。
- **momentum** (float) - 动态均值和动态方差所使用的动量。默认值0.9。
- **affine** (bool) - bool类型。设置为True时可学习到gama和beta值。默认值True。
- **gamma_init** (Union[Tensor, str, Initializer, numbers.Number]) - gama参数的初始化方法。str的值引用自函数 `initializer` ,包括'zeros'、'ones'等。默认值:'ones'。
- **beta_init** (Union[Tensor, str, Initializer, numbers.Number]) - beta参数的初始化方法。str的值引用自函数 `initializer` ,包括'zeros'、'ones'等。默认值:'zeros'。
- **moving_mean_init** (Union[Tensor, str, Initializer, numbers.Number]) - 动态平均值的初始化方法。str的值引用自函数 `initializer` ,包括'zeros'、'ones'等。默认值:'zeros'。
- **moving_var_init** (Union[Tensor, str, Initializer, numbers.Number]) - 动态方差的初始化方法。str的值引用自函数 `initializer` ,包括'zeros'、'ones'等。默认值:'ones'。
- **gamma_init** (Union[Tensor, str, Initializer, numbers.Number]) - gamma参数的初始化方法。str的值引用自函数 `mindspore.common.initializer` ,包括'zeros'、'ones'等。默认值:'ones'。
- **beta_init** (Union[Tensor, str, Initializer, numbers.Number]) - beta参数的初始化方法。str的值引用自函数 `mindspore.common.initializer` ,包括'zeros'、'ones'等。默认值:'zeros'。
- **moving_mean_init** (Union[Tensor, str, Initializer, numbers.Number]) - 动态平均值的初始化方法。str的值引用自函数 `mindspore.common.initializer` ,包括'zeros'、'ones'等。默认值:'zeros'。
- **moving_var_init** (Union[Tensor, str, Initializer, numbers.Number]) - 动态方差的初始化方法。str的值引用自函数 `mindspore.common.initializer` ,包括'zeros'、'ones'等。默认值:'ones'。
- **use_batch_statistics** (bool) - 如果为True则使用当前批次数据的平均值和方差值。如果为False则使用指定的平均值和方差值。如果为None训练时将使用当前批次数据的均值和方差并更新动态均值和方差验证过程将直接使用动态均值和方差。默认值None。
**输入:**

View File

@ -3,9 +3,9 @@ mindspore.nn.BatchNorm2d
.. py:class:: mindspore.nn.BatchNorm2d(num_features, eps=1e-5, momentum=0.9, affine=True, gamma_init='ones', beta_init='zeros', moving_mean_init='zeros', moving_var_init='ones', use_batch_statistics=None, data_format='NCHW')
对输入的四维数据进行批归一化(Batch Normalization Layer)。
对输入的四维数据进行批归一化(Batch Normalization Layer)。
批归一化广泛应用于卷积网络中。此层在四维输入(具有额外通道维度的小批量二维输入)上应用批归一化处理,以避免内部协变量偏移。请见论文 `Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift <https://arxiv.org/abs/1502.03167>`_ 。使用mini-batch数据和学习参数进行训练这些参数见以下公式。
在四维输入(具有额外通道维度的小批量二维输入)上应用批归一化处理,以避免内部协变量偏移。批归一化广泛应用于卷积网络中。请见论文 `Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift <https://arxiv.org/abs/1502.03167>`_ 。使用mini-batch数据和学习参数进行训练这些参数见以下公式。
.. math::
y = \frac{x - \mathrm{E}[x]}{\sqrt{\mathrm{Var}[x] + \epsilon}} * \gamma + \beta
@ -13,7 +13,7 @@ mindspore.nn.BatchNorm2d
.. note::
BatchNorm的实现在图模式和PyNative模式下是不同的因此不建议在网络初始化后更改其模式。
需要注意的是更新moving_mean和moving_var的公式为
需要注意的是,更新 `moving_mean` `moving_var` 的公式为:
.. math::
\text{moving_mean}=\text{moving_mean*momentum}+μ_β\text{*(1momentum)}\\
@ -24,13 +24,13 @@ mindspore.nn.BatchNorm2d
**参数:**
- **num_features** (int) - 指定输入Tensor的通道数量输入Tensor的size为(N, C, H, W)。
- **eps** (float) - 确保数值稳定加在分母上的值。默认值1e-5。
- **eps** (float) - 加在分母上的值,以确保数值稳定。默认值1e-5。
- **momentum** (float) - 动态均值和动态方差所使用的动量。默认值0.9。
- **affine** (bool) - bool类型。设置为True时可学习gama和beta值。默认值True。
- **gamma_init** (Union[Tensor, str, Initializer, numbers.Number]) - gama参数的初始化方法。str的值引用自函数 `initializer`,包括'zeros'、'ones'等。默认值:'ones'。
- **beta_init** (Union[Tensor, str, Initializer, numbers.Number]) - beta参数的初始化方法。str的值引用自函数 `initializer`,包括'zeros'、'ones'等。默认值:'zeros'。
- **moving_mean_init** (Union[Tensor, str, Initializer, numbers.Number]) - 动态平均值的初始化方法。str的值引用自函数 `initializer`,包括'zeros'、'ones'等。默认值:'zeros'。
- **moving_var_init** (Union[Tensor, str, Initializer, numbers.Number]) - 动态方差的初始化方法。str的值引用自函数 `initializer`,包括'zeros'、'ones'等。默认值:'ones'。
- **gamma_init** (Union[Tensor, str, Initializer, numbers.Number]) - gamma参数的初始化方法。str的值引用自函数 `mindspore.common.initializer`,包括'zeros'、'ones'等。默认值:'ones'。
- **beta_init** (Union[Tensor, str, Initializer, numbers.Number]) - beta参数的初始化方法。str的值引用自函数 `mindspore.common.initializer`,包括'zeros'、'ones'等。默认值:'zeros'。
- **moving_mean_init** (Union[Tensor, str, Initializer, numbers.Number]) - 动态平均值的初始化方法。str的值引用自函数 `mindspore.common.initializer`,包括'zeros'、'ones'等。默认值:'zeros'。
- **moving_var_init** (Union[Tensor, str, Initializer, numbers.Number]) - 动态方差的初始化方法。str的值引用自函数 `mindspore.common.initializer`,包括'zeros'、'ones'等。默认值:'ones'。
- **use_batch_statistics** (bool) - 如果为True则使用当前批处理数据的平均值和方差值并跟踪运行平均值和运行方差。如果为False则使用指定值的平均值和方差值不跟踪统计值。如果为None则根据训练和验证模式自动设置use_batch_statistics为True或False。在训练时use_batch_statistics会设置为True。在验证时use_batch_statistics会自动设置为False。默认值None。
- **data_format** (str) - 数据格式可为'NHWC'或'NCHW'。默认值:'NCHW'。

View File

@ -3,9 +3,9 @@ mindspore.nn.BatchNorm3d
.. py:class:: mindspore.nn.BatchNorm3d(num_features, eps=1e-5, momentum=0.9, affine=True, gamma_init='ones', beta_init='zeros', moving_mean_init='zeros', moving_var_init='ones', use_batch_statistics=None, data_format='NCDHW')
对输入的五维数据进行批归一化(Batch Normalization Layer)。
对输入的五维数据进行批归一化(Batch Normalization Layer)。
归一化在卷积网络中得到了广泛的应用。该层在5维输入带有附加通道维度的mini-batch 三维输入)上应用批归一化,避免内部协变量偏移。
在五维输入带有附加通道维度的mini-batch 三维输入)上应用批归一化,避免内部协变量偏移。 归一化在卷积网络中得到了广泛的应用。
.. math::
y = \frac{x - \mathrm{E}[x]}{\sqrt{\mathrm{Var}[x] + \epsilon}} * \gamma + \beta
@ -13,28 +13,28 @@ mindspore.nn.BatchNorm3d
.. note::
BatchNorm的实现在图模式和PyNative模式下是不同的因此不建议在网络初始化后更改其模式。
需要注意的是更新running_mean和running_var的公式为 :math:`\hat{x}_\text{new} = (1 - \text{momentum}) \times x_t + \text{momentum} \times \hat{x}` ,其中 :math:`\Hat{x}` 是估计的统计量, :math:`x_t` 是新的观察值。
需要注意的是更新running_mean和running_var的公式为 :math:`\hat{x}_\text{new} = (1 - \text{momentum}) \times x_t + \text{momentum} \times \hat{x}` ,其中 :math:`\hat{x}` 是估计的统计量, :math:`x_t` 是新的观察值。
**参数:**
- **num_features** (int) - 指定输入Tensor的通道数量。输入Tensor的size为(N, C, D, H, W)。
- **eps** (float) - 确保数值稳定加在分母上的值。默认值1e-5。
- **eps** (float) - 加在分母上的值,以确保数值稳定。默认值1e-5。
- **momentum** (float) - 动态均值和动态方差所使用的动量。默认值0.9。
- **affine** (bool) - bool类型。设置为True时可以学习gama和beta。默认值True。
- **gamma_init** (Union[Tensor, str, Initializer, numbers.Number]) - gama参数的初始化方法。str的值引用自函数 `initializer` ,包括'zeros'、'ones'等。默认值:'ones'。
- **beta_init** (Union[Tensor, str, Initializer, numbers.Number]) - beta参数的初始化方法。str的值引用自函数 `initializer` ,包括'zeros'、'ones'等。默认值:'zeros'。
- **moving_mean_init** (Union[Tensor, str, Initializer, numbers.Number]) - 动态均值和动态方差所使用的动量。平均值的初始化方法。str的值引用自函数 `initializer` ,包括'zeros'、'ones'等。默认值:'zeros'。
- **moving_var_init** (Union[Tensor, str, Initializer, numbers.Number]) - 动态均值和动态方差所使用的动量。方差的初始化方法。str的值引用自函数 `initializer` ,包括'zeros'、'ones'等。默认值:'ones'。
- **gamma_init** (Union[Tensor, str, Initializer, numbers.Number]) - gamma参数的初始化方法。str的值引用自函数 `mindspore.common.initializer` ,包括'zeros'、'ones'等。默认值:'ones'。
- **beta_init** (Union[Tensor, str, Initializer, numbers.Number]) - beta参数的初始化方法。str的值引用自函数 `mindspore.common.initializer` ,包括'zeros'、'ones'等。默认值:'zeros'。
- **moving_mean_init** (Union[Tensor, str, Initializer, numbers.Number]) - 动态均值和动态方差所使用的动量。平均值的初始化方法。str的值引用自函数 `mindspore.common.initializer` ,包括'zeros'、'ones'等。默认值:'zeros'。
- **moving_var_init** (Union[Tensor, str, Initializer, numbers.Number]) - 动态均值和动态方差所使用的动量。方差的初始化方法。str的值引用自函数 `mindspore.common.initializer` ,包括'zeros'、'ones'等。默认值:'ones'。
- **use_batch_statistics** (bool) - 如果为True则使用当前批次数据的平均值和方差值。如果为False则使用指定的平均值和方差值。如果为None训练时将使用当前批次数据的均值和方差并更新动态均值和方差验证过程将直接使用动态均值和方差。默认值None。
- **data_format** (str) - 数据格式的可选值为'NCDHW'。默认值:'NCDHW'。
**输入:**
- **x** (Tensor) - 输入shape为 :math:`(N, C_{in}, D_{in}, H_{in}, W_{in})`tensor。
- **x** (Tensor) - 输入shape为 :math:`(N, C_{in}, D_{in}, H_{in}, W_{in})`Tensor。
**输出:**
Tensor归一化后的tensorshape为 `(N, C_{out}, D_{out},H_{out}, W_{out})`
Tensor归一化后的Tensorshape为 `(N, C_{out}, D_{out},H_{out}, W_{out})`
**异常:**

View File

@ -10,7 +10,7 @@ mindspore.nn.Dense
.. math::
\text{outputs} = \text{activation}(\text{X} * \text{kernel} + \text{bias}),
其中 :math:`X` 是输入Tensor :math:`\text{activation}` 是激活函数(如果传递的话) :math:`\text{kernel}` 是一个权重矩阵,其数据类型与 :math:`X` 相同, :math:`\text{bias}` 是一个偏置向量,其数据类型与 :math:`X` 相同仅当has_bias为True时
其中 :math:`X` 是输入Tensor :math:`\text{activation}` 是激活函数, :math:`\text{kernel}` 是一个权重矩阵,其数据类型与 :math:`X` 相同, :math:`\text{bias}` 是一个偏置向量,其数据类型与 :math:`X` 相同仅当has_bias为True时
**参数:**
@ -18,12 +18,12 @@ mindspore.nn.Dense
- **out_channels** (int) - Dense层输出Tensor的空间维度。
- **weight_init** (Union[Tensor, str, Initializer, numbers.Number]) - 权重参数的初始化方法。数据类型与 `x` 相同。str的值引用自函数 `initializer`。默认值:'normal'。
- **bias_init** (Union[Tensor, str, Initializer, numbers.Number]) - 偏置参数的初始化方法。数据类型与 `x` 相同。str的值引用自函数 `initializer`。默认值:'zeros'。
- **has_bias** (bool) - 指定图层是否使用偏置向量。默认值True。
- **has_bias** (bool) - 是否使用偏置向量。默认值True。
- **activation** (Union[str, Cell, Primitive]) - 应用于全连接层输出的激活函数例如ReLU。默认值None。
**输入:**
- **x** (Tensor) - shape为 :math:`(*,in\_channels)` 的Tensor。 `Args` 中的 `in_channels` 应等于 `Inputs` 中的 :math:`in\_channels`
- **x** (Tensor) - shape为 :math:`(*,in\_channels)` 的Tensor。 参数中的 `in_channels` 应等于输入中的 :math:`in\_channels`
**输出:**

View File

@ -5,7 +5,7 @@ mindspore.nn.FocalLoss
FocalLoss函数。
解决了类别不平衡和分类难度差异的问题。
解决了类别不平衡的问题。
论文 `Focal Loss for Dense Object Detection <https://arxiv.org/pdf/1708.02002.pdf>`_ 中提出的loss函数提高了图像目标检测的效果。
@ -18,12 +18,12 @@ mindspore.nn.FocalLoss
- **gamma** (float) - gamma用于调整Focal Loss的权重曲线的陡峭程度。默认值2.0。
- **weight** (Union[Tensor, None]) - Focal Loss的权重维度为1。如果为None则不使用权重。默认值None。
- **reduction** (str) - 应用于loss的计算方式。取值为"mean""sum",或"none"。默认值:"mean"。
- **reduction** (str) - loss的计算方式。取值为"mean""sum",或"none"。默认值:"mean"。
**输入:**
- **logits** (Tensor) - shape为 :math:`(B, C)` 、 :math:`(B, C, H)` 、或 :math:`(B, C, H, W)` 的Tensor其中 :math:`C` 是分类的数量值大于1。如果shape为 :math:`(B, C, H, W)` 或 :math:`(B, C, H)` ,则 :math:`H`:math:`H`:math:`W` 的乘积应与 `labels` 的相同。
- **labels** (Tensor) - shape为 :math:`(B, C)` 、 :math:`(B, C, H)` 、或 :math:`(B, C, H, W)` 的Tensor :math:`C` 的值为1或者与 `logits`:math:`C` 相同。如果 :math:`C` 不为1则shape应与 `logits` 的shape相同其中 :math:`C` 是分类的数量。如果shape为 :math:`(B, C, H, W)` 或 :math:`(B, C, H)` ,则 :math:`H`:math:`H`:math:`W` 的乘积应与 `logits` 相同。
- **logits** (Tensor) - shape为 :math:`(N, C)` 、 :math:`(N, C, H)` 、或 :math:`(N, C, H, W)` 的Tensor其中 :math:`C` 是分类的数量值大于1。如果shape为 :math:`(N, C, H, W)` 或 :math:`(N, C, H)` ,则 :math:`H`:math:`H`:math:`W` 的乘积应与 `labels` 的相同。
- **labels** (Tensor) - shape为 :math:`(N, C)` 、 :math:`(N, C, H)` 、或 :math:`(N, C, H, W)` 的Tensor :math:`C` 的值为1或者与 `logits`:math:`C` 相同。如果 :math:`C` 不为1则shape应与 `logits` 的shape相同其中 :math:`C` 是分类的数量。如果shape为 :math:`(N, C, H, W)` 或 :math:`(N, C, H)` ,则 :math:`H`:math:`H`:math:`W` 的乘积应与 `logits` 相同。
**输出:**

View File

@ -5,9 +5,9 @@ mindspore.nn.GroupNorm
在mini-batch输入上进行组归一化。
近来,组归一化在递归神经网络中得到了广泛的应用。适用单个训练用例的mini-batch输入归一化详见论文 `Group Normalization <https://arxiv.org/pdf/1803.08494.pdf>`_
适用单个训练用例的mini-batch输入归一化详见论文 `Group Normalization <https://arxiv.org/pdf/1803.08494.pdf>`_
把通道划分为组,然后计算每一组之内的均值和方差,已进行归一化在batch size上表现非常稳定
把通道划分为组,然后计算每一组之内的均值和方差,以进行归一化
公式如下,
@ -20,12 +20,12 @@ mindspore.nn.GroupNorm
- **num_channels** (int) - 输入的通道数。
- **eps** (float) - 添加到分母中的值以确保数值稳定。默认值1e-5。
- **affine** (bool) - Bool类型当设置为True时给该层添加可学习的仿射变换参数即gama与beta。默认值True。
- **gamma_init** (Union[Tensor, str, Initializer, numbers.Number]) - gama参数的初始化方法。str的值引用自函数 `initializer` ,包括'zeros'、'ones'、'xavier_uniform'、'he_uniform'等。默认值:'ones'。如果gamma_init是tensor则shape必须为[num_channels]。
- **beta_init** (Union[Tensor, str, Initializer, numbers.Number]) - beta参数的初始化方法。str的值引用自函数 `initializer` ,包括'zeros'、'ones'、'xavier_uniform'、'he_uniform'等。默认值:'zeros'如果gamma_init是tensor则shape必须为[num_channels]。
- **gamma_init** (Union[Tensor, str, Initializer, numbers.Number]) - gamma参数的初始化方法。str的值引用自函数 `mindspore.common.initializer` ,包括'zeros'、'ones'、'xavier_uniform'、'he_uniform'等。默认值:'ones'。如果gamma_init是Tensor则shape必须为[num_channels]。
- **beta_init** (Union[Tensor, str, Initializer, numbers.Number]) - beta参数的初始化方法。str的值引用自函数 `mindspore.common.initializer` ,包括'zeros'、'ones'、'xavier_uniform'、'he_uniform'等。默认值:'zeros'如果gamma_init是Tensor则shape必须为[num_channels]。
**输入:**
- **x** (Tensor)** - shape为[N, C, H, W]的特征输入。
- **x** (Tensor) - shape为 `(N, C, H, W)` 的特征输入。
**输出:**

View File

@ -3,11 +3,13 @@ mindspore.nn.L1Regularizer
.. py:class:: mindspore.nn.L1Regularizer(scale)
对权重计算L1正则化的值
对权重计算L1正则化。
.. math::
\text{loss}=\lambda * \text{reduce_sum}(\text{abs}(\omega))
:math:`\lambda` 代表 `scale`
.. note::
正则化因子应为大于0。

View File

@ -21,7 +21,7 @@ mindspore.nn.MaxPool1d
- **stride** (int) - 池化操作的移动步长数据类型为整型。默认值1。
- **pad_mode** (str) - 指定池化填充模式,取值为"same"或"valid",不区分大小写。默认值:"valid"。
- **same** - 输出的宽度输入整数 `stride` 后的值相同。
- **same** - 输出的宽度输入整数 `stride` 后的值相同。
- **valid** - 在不填充的前提下返回有效计算所得的输出。不满足计算的多余像素会被丢弃。
**输入:**
@ -30,7 +30,7 @@ mindspore.nn.MaxPool1d
**输出:**
shape为 :math:`(N, C, L_{out}))` 的Tensor。
shape为 :math:`(N, C, L_{out})` 的Tensor。
**异常:**

View File

@ -3,9 +3,9 @@ mindspore.nn.OneHot
.. py:class:: mindspore.nn.OneHot(axis=-1, depth=1, on_value=1.0, off_value=0.0, dtype=mstype.float32)
返回一个one-hot类型的Tensor
对输入进行one-hot编码并返回
参数 `indices` 表示的位置取值为on_value其他所有位置取值为off_value。
输入的 `indices` 表示的位置取值为on_value其他所有位置取值为off_value。
.. note::
如果indices是n阶Tensor那么返回的one-hot Tensor则为n+1阶Tensor。
@ -32,11 +32,11 @@ mindspore.nn.OneHot
**参数:**
- **axis** (int) - 指定第几阶为depth维one-hot向量如果轴为-1则 features x depth如果轴为0则 depth x features。默认值:-1。
- **depth** (int) - 定义one-hot向量的维度深度。默认值1。
- **on_value** (float) - one-hot值当indices[j] = i时填充output[i][j]的取值。默认值1.0。
- **off_value** (float) - 非one-hot值当indices[j] != i时填充output[i][j]的取值。默认值0.0。
- **dtype** (:class:`mindspore.dtype`) - 是'on_value'和'off_value'的数据类型,而不是索引的数据类型。默认值mindspore.float32。
- **axis** (int) - 指定第几阶为 `depth` 维one-hot向量如果轴为-1`features * depth` 如果轴为0`depth * features` 。默认值:-1。
- **depth** (int) - 定义one-hot向量的深度。默认值1。
- **on_value** (float) - one-hot值 `indices[j] = i` 填充output[i][j]的取值。默认值1.0。
- **off_value** (float) - 非one-hot值 `indices[j] != i` 填充output[i][j]的取值。默认值0.0。
- **dtype** (:class:`mindspore.dtype`) - 是'on_value'和'off_value'的数据类型,而不是输入的数据类型。默认值mindspore.float32。
**输入:**
@ -44,11 +44,11 @@ mindspore.nn.OneHot
**输出:**
Tensor数据类型 `dtype` 的独热Tensor维度为 `axis` 扩展到 `depth`并填充on_value和off_value。`Outputs` 的维度等于 `indices` 的维度加1。
Tensor输出Tensor数据类型 `dtype` 的one-hot Tensor维度为 `axis` 扩展到 `depth`并填充on_value和off_value。`Outputs` 的维度等于 `indices` 的维度加1。
**异常:**
- **TypeError** - `axis``depth` 不是整数
- **TypeError** - `axis``depth` 不是int
- **TypeError** - `indices` 的dtype既不是int32也不是int64。
- **ValueError** - 如果 `axis` 不在范围[-1, len(indices_shape)]内。
- **ValueError** - `depth` 小于0。

View File

@ -45,6 +45,8 @@ class L1Regularizer(Cell):
.. math::
\text{loss}=\lambda * \text{reduce_sum}(\text{abs}(\omega))
where :math:`\lambda` is `scale` .
Note:
scale(regularization factor) should be a number which greater than 0

View File

@ -1374,13 +1374,13 @@ class FocalLoss(LossBase):
If "none", do not perform reduction. Default: "mean".
Inputs:
- **logits** (Tensor) - Tensor of shape should be :math:`(B, C)` or :math:`(B, C, H)` or :math:`(B, C, H, W)`.
Where :math:`C` is the number of classes. Its value is greater than 1. If the shape is :math:`(B, C, H, W)`
or :math:`(B, C, H)`, the :math:`H` or product of :math:`H` and :math:`W` should be the same as labels.
- **labels** (Tensor) - Tensor of shape should be :math:`(B, C)` or :math:`(B, C, H)` or :math:`(B, C, H, W)`.
- **logits** (Tensor) - Tensor of shape should be :math:`(N, C)` or :math:`(N, C, H)` or :math:`(N, C, H, W)`.
Where :math:`C` is the number of classes. Its value is greater than 1. If the shape is :math:`(N, C, H, W)`
or :math:`(N, C, H)`, the :math:`H` or product of :math:`H` and :math:`W` should be the same as labels.
- **labels** (Tensor) - Tensor of shape should be :math:`(N, C)` or :math:`(N, C, H)` or :math:`(N, C, H, W)`.
The value of :math:`C` is 1 or it needs to be the same as predict's :math:`C`. If :math:`C` is not 1,
the shape of target should be the same as that of predict, where :math:`C` is the number of classes.
If the shape is :math:`(B, C, H, W)` or :math:`(B, C, H)`, the :math:`H` or product of :math:`H`
If the shape is :math:`(N, C, H, W)` or :math:`(N, C, H)`, the :math:`H` or product of :math:`H`
and :math:`W` should be the same as logits. The value of `labels` is should be in the
range [-:math:`C`, :math:`C`). Where :math:`C` is the number of classes in logits.