add bce_with_logit_loss chinese doc api.
This commit is contained in:
parent
9475ee69e2
commit
efdeb29bdc
|
@ -337,6 +337,7 @@ Array操作
|
|||
mindspore.ops.adaptive_max_pool2d
|
||||
mindspore.ops.affine_grid
|
||||
mindspore.ops.batch_to_space_nd
|
||||
mindspore.ops.binary_cross_entropy_with_logits
|
||||
mindspore.ops.broadcast_to
|
||||
mindspore.ops.col2im
|
||||
mindspore.ops.concat
|
||||
|
|
|
@ -3,7 +3,7 @@ mindspore.nn.BCEWithLogitsLoss
|
|||
|
||||
.. py:class:: mindspore.nn.BCEWithLogitsLoss(reduction='mean', weight=None, pos_weight=None)
|
||||
|
||||
输入经过sigmoid激活函数后作为预测值,BCEWithLogitsLoss计算预测值和目标值之间的二值交叉熵损失。
|
||||
输入经过sigmoid激活函数后作为预测值,`BCEWithLogitsLoss` 计算预测值和目标值之间的二值交叉熵损失。
|
||||
|
||||
将输入 `logits` 设置为 :math:`X`,输入 `labels` 为 :math:`Y`,输出为 :math:`L`。则公式如下:
|
||||
|
||||
|
@ -24,7 +24,7 @@ mindspore.nn.BCEWithLogitsLoss
|
|||
|
||||
**参数:**
|
||||
|
||||
- **reduction** (str) - 指定输出结果的计算方式。可选值有:'mean','sum',和'none'。如果为'none',则不执行reduction。默认值:'mean'。
|
||||
- **reduction** (str) - 指定输出结果的计算方式。可选值有:`mean` , `sum` ,和 `none` 。如果为 `none` ,则不执行reduction。默认值:`mean` 。
|
||||
- **weight** (Tensor, optional) - 指定每个批次二值交叉熵的权重。如果不是None,将进行广播,其shape与 `logits` 的shape保持一致,数据类型为float16或float32。默认值:None。
|
||||
- **pos_weight** (Tensor, optional) - 指定正样本的权重。是一个长度等于分类数的向量。如果不是None,将进行广播,其shape与 `logits` 的shape保持一致,数据类型必须为float16或float32。默认值:None。
|
||||
|
||||
|
@ -35,7 +35,7 @@ mindspore.nn.BCEWithLogitsLoss
|
|||
|
||||
**输出:**
|
||||
|
||||
Tensor或Scalar,如果 `reduction` 为"none",其shape需和 `logits` 相同。否则,将返回Scalar。
|
||||
Tensor或Scalar,如果 `reduction` 为 `none` ,其shape需和 `logits` 相同。否则,将返回Scalar。
|
||||
|
||||
**异常:**
|
||||
|
||||
|
@ -43,6 +43,6 @@ mindspore.nn.BCEWithLogitsLoss
|
|||
- **TypeError** - `weight` 或 `pos_weight` 是 Parameter。
|
||||
- **TypeError** - `weight` 或 `pos_weight` 的数据类型既不是float16也不是float32。
|
||||
- **ValueError** - `weight` 或 `pos_weight` 不能广播到shape为 `logits` 的Tensor。
|
||||
- **ValueError** - `reduction` 不为'none'、'mean'或'sum'。
|
||||
- **ValueError** - `reduction` 不为 `none` 、`mean` 或 `sum` 。
|
||||
|
||||
|
||||
|
|
|
@ -3,7 +3,7 @@ mindspore.ops.BCEWithLogitsLoss
|
|||
|
||||
.. py:class:: mindspore.ops.BCEWithLogitsLoss(reduction='mean')
|
||||
|
||||
输入经过sigmoid激活函数后作为预测值,BCEWithLogitsLoss计算预测值和目标值之间的二值交叉熵损失。
|
||||
输入经过sigmoid激活函数后作为预测值,`BCEWithLogitsLoss` 计算预测值和目标值之间的二值交叉熵损失。
|
||||
|
||||
将输入 `logits` 设置为 :math:`X` ,输入 `labels` 设置为 :math:`Y` ,输入 `weight` 设置为 :math:`W` ,输出设置为 :math:`L` 。则,
|
||||
|
||||
|
@ -25,7 +25,7 @@ mindspore.ops.BCEWithLogitsLoss
|
|||
|
||||
**参数:**
|
||||
|
||||
- **reduction** (str) - 指定用于输出结果的计算方式。取值为'mean'、'sum'或'none',不区分大小写。如果'none',则不执行reduction。默认值:'mean'。
|
||||
- **reduction** (str) - 指定用于输出结果的计算方式。取值为 `mean` 、 `sum` 或 `none` ,不区分大小写。如果 `none` ,则不执行 `reduction` 。默认值:`mean` 。
|
||||
|
||||
**输入:**
|
||||
|
||||
|
@ -36,10 +36,10 @@ mindspore.ops.BCEWithLogitsLoss
|
|||
|
||||
**输出:**
|
||||
|
||||
Tensor或Scalar,如果 `reduction` 为'none',则为shape和数据类型与输入'logits'相的Tensor。否则,输出为Scalar。
|
||||
Tensor或Scalar,如果 `reduction` 为 `none` ,则为shape和数据类型与输入 `logits` 相同的Tensor。否则,输出为Scalar。
|
||||
|
||||
**异常:**
|
||||
|
||||
- **TypeError** - 任何输入的数据类型既不是float16也不是float32。
|
||||
- **ValueError** - `weight` 或 `pos_weight` 不能广播到shape为 `logits` 的Tensor。
|
||||
- **ValueError** - `reduction` 不为'none'、'mean'或'sum'。
|
||||
- **ValueError** - `reduction` 不为 `none` 、 `mean` 或 `sum` 。
|
|
@ -0,0 +1,42 @@
|
|||
mindspore.ops.binary_cross_entropy_with_logits
|
||||
==============================================
|
||||
|
||||
.. py:function:: mindspore.ops.binary_cross_entropy_with_logits(logits, label, weight, pos_weight, reduction='mean')
|
||||
|
||||
输入经过sigmoid激活函数后作为预测值,`binary_cross_entropy_with_logits` 计算预测值和目标值之间的二值交叉熵损失。
|
||||
|
||||
将输入 `logits` 设置为 :math:`X` ,输入 `labels` 设置为 :math:`Y` ,输入 `weight` 设置为 :math:`W` ,输出设置为 :math:`L` 。则,
|
||||
|
||||
.. math::
|
||||
\begin{array}{ll} \\
|
||||
L_{ij} = -W_{ij}[Y_{ij}log(X_{ij}) + (1 - Y_{ij})log(1 - X_{ij})]
|
||||
\end{array}
|
||||
|
||||
:math:`i` 表示 :math:`i^{th}` 样例, :math:`j` 表示类别。则,
|
||||
|
||||
.. math::
|
||||
\ell(x, y) = \begin{cases}
|
||||
L, & \text{if reduction} = \text{'none';}\\
|
||||
\operatorname{mean}(L), & \text{if reduction} = \text{'mean';}\\
|
||||
\operatorname{sum}(L), & \text{if reduction} = \text{'sum'.}
|
||||
\end{cases}
|
||||
|
||||
:math:`\ell` 表示计算损失的方法。有三种方法:第一种方法是直接提供损失值,第二种方法是计算所有损失的平均值,第三种方法是计算所有损失的总和。
|
||||
|
||||
**参数:**
|
||||
|
||||
- **logits** (Tensor) - 输入预测值,任意维度的Tensor。其数据类型为float16或float32。
|
||||
- **label** (Tensor) - 输入目标值,shape与 `logits` 相同。数据类型为float16或float32。
|
||||
- **weight** (Tensor) - 指定每个批次二值交叉熵的权重。支持广播,使其shape与 `logits` 的shape保持一致。数据类型必须为float16或float32。
|
||||
- **pos_weight** (Tensor) - 指定正类的权重。是一个长度等于分类数的向量。支持广播,使其shape与 `logits` 的shape保持一致。数据类型必须为float16或float32。
|
||||
- **reduction** (str) - 指定用于输出结果的计算方式。取值为 `mean` 、 `sum` 或 `none` ,不区分大小写。如果 `none` ,则不执行 `reduction` 。默认值:`mean` 。
|
||||
|
||||
**返回:**
|
||||
|
||||
Tensor或Scalar,如果 `reduction` 为 `none` ,则为shape和数据类型与输入 `logits` 相同的Tensor。否则,输出为Scalar。
|
||||
|
||||
**异常:**
|
||||
|
||||
- **TypeError** - 任何输入的数据类型既不是float16也不是float32。
|
||||
- **ValueError** - `weight` 或 `pos_weight` 不能广播到shape为 `logits` 的Tensor。
|
||||
- **ValueError** - `reduction` 不为 `none` 、 `mean` 或 `sum` 。
|
|
@ -336,6 +336,7 @@ Array Operation
|
|||
mindspore.ops.adaptive_max_pool2d
|
||||
mindspore.ops.affine_grid
|
||||
mindspore.ops.batch_to_space_nd
|
||||
mindspore.ops.binary_cross_entropy_with_logits
|
||||
mindspore.ops.broadcast_to
|
||||
mindspore.ops.col2im
|
||||
mindspore.ops.concat
|
||||
|
|
|
@ -1370,8 +1370,8 @@ class Tensor(Tensor_):
|
|||
>>> input_x = Tensor(np.array([[[-4.5, -1.5], [7.0, 6.0]], [[2.5, 0.5], [3.0, 9.0]]]), mindspore.float32)
|
||||
>>> sign, output = input_x.log_matrix_determinant()
|
||||
>>> print(sign)
|
||||
>>> print(output)
|
||||
[-1. 1.]
|
||||
>>> print(output)
|
||||
[2.80336046e+00 3.04452229e+00]
|
||||
"""
|
||||
self._init_check()
|
||||
|
|
|
@ -2162,8 +2162,8 @@ def log_matrix_determinant(x):
|
|||
>>> input_x = Tensor(np.array([[[-4.5, -1.5], [7.0, 6.0]], [[2.5, 0.5], [3.0, 9.0]]]), mindspore.float32)
|
||||
>>> sign, output = ops.log_matrix_determinant(input_x)
|
||||
>>> print(sign)
|
||||
>>> print(output)
|
||||
[-1. 1.]
|
||||
>>> print(output)
|
||||
[2.80336046e+00 3.04452229e+00]
|
||||
"""
|
||||
return log_matrix_determinant_(x)
|
||||
|
|
|
@ -5297,8 +5297,8 @@ class LogMatrixDeterminant(Primitive):
|
|||
>>> op = LogMatrixDeterminant()
|
||||
>>> sign, output = op(input_x)
|
||||
>>> print(sign)
|
||||
>>> print(output)
|
||||
[-1. 1.]
|
||||
>>> print(output)
|
||||
[2.80336046e+00 3.04452229e+00]
|
||||
"""
|
||||
|
||||
|
|
Loading…
Reference in New Issue