add bce_with_logit_loss chinese doc api.

This commit is contained in:
z00512249 2022-07-20 09:49:56 +08:00
parent 9475ee69e2
commit efdeb29bdc
8 changed files with 55 additions and 11 deletions

View File

@ -337,6 +337,7 @@ Array操作
mindspore.ops.adaptive_max_pool2d
mindspore.ops.affine_grid
mindspore.ops.batch_to_space_nd
mindspore.ops.binary_cross_entropy_with_logits
mindspore.ops.broadcast_to
mindspore.ops.col2im
mindspore.ops.concat

View File

@ -3,7 +3,7 @@ mindspore.nn.BCEWithLogitsLoss
.. py:class:: mindspore.nn.BCEWithLogitsLoss(reduction='mean', weight=None, pos_weight=None)
输入经过sigmoid激活函数后作为预测值BCEWithLogitsLoss计算预测值和目标值之间的二值交叉熵损失。
输入经过sigmoid激活函数后作为预测值`BCEWithLogitsLoss` 计算预测值和目标值之间的二值交叉熵损失。
将输入 `logits` 设置为 :math:`X`,输入 `labels`:math:`Y`,输出为 :math:`L`。则公式如下:
@ -24,7 +24,7 @@ mindspore.nn.BCEWithLogitsLoss
**参数:**
- **reduction** (str) - 指定输出结果的计算方式。可选值有:'mean''sum',和'none'。如果为'none'则不执行reduction。默认值'mean'
- **reduction** (str) - 指定输出结果的计算方式。可选值有:`mean` `sum` ,和 `none` 。如果为 `none` 则不执行reduction。默认值`mean`
- **weight** (Tensor, optional) - 指定每个批次二值交叉熵的权重。如果不是None将进行广播其shape与 `logits` 的shape保持一致数据类型为float16或float32。默认值None。
- **pos_weight** (Tensor, optional) - 指定正样本的权重。是一个长度等于分类数的向量。如果不是None将进行广播其shape与 `logits` 的shape保持一致数据类型必须为float16或float32。默认值None。
@ -35,7 +35,7 @@ mindspore.nn.BCEWithLogitsLoss
**输出:**
Tensor或Scalar如果 `reduction`"none"其shape需和 `logits` 相同。否则将返回Scalar。
Tensor或Scalar如果 `reduction` `none` 其shape需和 `logits` 相同。否则将返回Scalar。
**异常:**
@ -43,6 +43,6 @@ mindspore.nn.BCEWithLogitsLoss
- **TypeError** - `weight``pos_weight` 是 Parameter。
- **TypeError** - `weight``pos_weight` 的数据类型既不是float16也不是float32。
- **ValueError** - `weight``pos_weight` 不能广播到shape为 `logits` 的Tensor。
- **ValueError** - `reduction` 不为'none'、'mean'或'sum'
- **ValueError** - `reduction` 不为 `none``mean``sum`

View File

@ -3,7 +3,7 @@ mindspore.ops.BCEWithLogitsLoss
.. py:class:: mindspore.ops.BCEWithLogitsLoss(reduction='mean')
输入经过sigmoid激活函数后作为预测值BCEWithLogitsLoss计算预测值和目标值之间的二值交叉熵损失。
输入经过sigmoid激活函数后作为预测值`BCEWithLogitsLoss` 计算预测值和目标值之间的二值交叉熵损失。
将输入 `logits` 设置为 :math:`X` ,输入 `labels` 设置为 :math:`Y` ,输入 `weight` 设置为 :math:`W` ,输出设置为 :math:`L` 。则,
@ -25,7 +25,7 @@ mindspore.ops.BCEWithLogitsLoss
**参数:**
- **reduction** (str) - 指定用于输出结果的计算方式。取值为'mean'、'sum'或'none',不区分大小写。如果'none'则不执行reduction。默认值'mean'
- **reduction** (str) - 指定用于输出结果的计算方式。取值为 `mean``sum``none` ,不区分大小写。如果 `none` ,则不执行 `reduction` 。默认值:`mean`
**输入:**
@ -36,10 +36,10 @@ mindspore.ops.BCEWithLogitsLoss
**输出:**
Tensor或Scalar如果 `reduction`'none'则为shape和数据类型与输入'logits'相的Tensor。否则输出为Scalar。
Tensor或Scalar如果 `reduction` `none` 则为shape和数据类型与输入 `logits` 相同的Tensor。否则输出为Scalar。
**异常:**
- **TypeError** - 任何输入的数据类型既不是float16也不是float32。
- **ValueError** - `weight``pos_weight` 不能广播到shape为 `logits` 的Tensor。
- **ValueError** - `reduction` 不为'none'、'mean'或'sum'
- **ValueError** - `reduction` 不为 `none``mean``sum`

View File

@ -0,0 +1,42 @@
mindspore.ops.binary_cross_entropy_with_logits
==============================================
.. py:function:: mindspore.ops.binary_cross_entropy_with_logits(logits, label, weight, pos_weight, reduction='mean')
输入经过sigmoid激活函数后作为预测值`binary_cross_entropy_with_logits` 计算预测值和目标值之间的二值交叉熵损失。
将输入 `logits` 设置为 :math:`X` ,输入 `labels` 设置为 :math:`Y` ,输入 `weight` 设置为 :math:`W` ,输出设置为 :math:`L` 。则,
.. math::
\begin{array}{ll} \\
L_{ij} = -W_{ij}[Y_{ij}log(X_{ij}) + (1 - Y_{ij})log(1 - X_{ij})]
\end{array}
:math:`i` 表示 :math:`i^{th}` 样例, :math:`j` 表示类别。则,
.. math::
\ell(x, y) = \begin{cases}
L, & \text{if reduction} = \text{'none';}\\
\operatorname{mean}(L), & \text{if reduction} = \text{'mean';}\\
\operatorname{sum}(L), & \text{if reduction} = \text{'sum'.}
\end{cases}
:math:`\ell` 表示计算损失的方法。有三种方法:第一种方法是直接提供损失值,第二种方法是计算所有损失的平均值,第三种方法是计算所有损失的总和。
**参数:**
- **logits** (Tensor) - 输入预测值任意维度的Tensor。其数据类型为float16或float32。
- **label** (Tensor) - 输入目标值shape与 `logits` 相同。数据类型为float16或float32。
- **weight** (Tensor) - 指定每个批次二值交叉熵的权重。支持广播使其shape与 `logits` 的shape保持一致。数据类型必须为float16或float32。
- **pos_weight** (Tensor) - 指定正类的权重。是一个长度等于分类数的向量。支持广播使其shape与 `logits` 的shape保持一致。数据类型必须为float16或float32。
- **reduction** (str) - 指定用于输出结果的计算方式。取值为 `mean``sum``none` ,不区分大小写。如果 `none` ,则不执行 `reduction` 。默认值:`mean`
**返回:**
Tensor或Scalar如果 `reduction``none` 则为shape和数据类型与输入 `logits` 相同的Tensor。否则输出为Scalar。
**异常:**
- **TypeError** - 任何输入的数据类型既不是float16也不是float32。
- **ValueError** - `weight``pos_weight` 不能广播到shape为 `logits` 的Tensor。
- **ValueError** - `reduction` 不为 `none``mean``sum`

View File

@ -336,6 +336,7 @@ Array Operation
mindspore.ops.adaptive_max_pool2d
mindspore.ops.affine_grid
mindspore.ops.batch_to_space_nd
mindspore.ops.binary_cross_entropy_with_logits
mindspore.ops.broadcast_to
mindspore.ops.col2im
mindspore.ops.concat

View File

@ -1370,8 +1370,8 @@ class Tensor(Tensor_):
>>> input_x = Tensor(np.array([[[-4.5, -1.5], [7.0, 6.0]], [[2.5, 0.5], [3.0, 9.0]]]), mindspore.float32)
>>> sign, output = input_x.log_matrix_determinant()
>>> print(sign)
>>> print(output)
[-1. 1.]
>>> print(output)
[2.80336046e+00 3.04452229e+00]
"""
self._init_check()

View File

@ -2162,8 +2162,8 @@ def log_matrix_determinant(x):
>>> input_x = Tensor(np.array([[[-4.5, -1.5], [7.0, 6.0]], [[2.5, 0.5], [3.0, 9.0]]]), mindspore.float32)
>>> sign, output = ops.log_matrix_determinant(input_x)
>>> print(sign)
>>> print(output)
[-1. 1.]
>>> print(output)
[2.80336046e+00 3.04452229e+00]
"""
return log_matrix_determinant_(x)

View File

@ -5297,8 +5297,8 @@ class LogMatrixDeterminant(Primitive):
>>> op = LogMatrixDeterminant()
>>> sign, output = op(input_x)
>>> print(sign)
>>> print(output)
[-1. 1.]
>>> print(output)
[2.80336046e+00 3.04452229e+00]
"""