diff --git a/docs/api/api_python/mindspore.ops.functional.rst b/docs/api/api_python/mindspore.ops.functional.rst index f0fdb9ebc20..e481ac93bc4 100644 --- a/docs/api/api_python/mindspore.ops.functional.rst +++ b/docs/api/api_python/mindspore.ops.functional.rst @@ -337,6 +337,7 @@ Array操作 mindspore.ops.adaptive_max_pool2d mindspore.ops.affine_grid mindspore.ops.batch_to_space_nd + mindspore.ops.binary_cross_entropy_with_logits mindspore.ops.broadcast_to mindspore.ops.col2im mindspore.ops.concat diff --git a/docs/api/api_python/nn/mindspore.nn.BCEWithLogitsLoss.rst b/docs/api/api_python/nn/mindspore.nn.BCEWithLogitsLoss.rst index e698f1de98b..626cb92cf18 100644 --- a/docs/api/api_python/nn/mindspore.nn.BCEWithLogitsLoss.rst +++ b/docs/api/api_python/nn/mindspore.nn.BCEWithLogitsLoss.rst @@ -3,7 +3,7 @@ mindspore.nn.BCEWithLogitsLoss .. py:class:: mindspore.nn.BCEWithLogitsLoss(reduction='mean', weight=None, pos_weight=None) - 输入经过sigmoid激活函数后作为预测值,BCEWithLogitsLoss计算预测值和目标值之间的二值交叉熵损失。 + 输入经过sigmoid激活函数后作为预测值,`BCEWithLogitsLoss` 计算预测值和目标值之间的二值交叉熵损失。 将输入 `logits` 设置为 :math:`X`,输入 `labels` 为 :math:`Y`,输出为 :math:`L`。则公式如下: @@ -24,7 +24,7 @@ mindspore.nn.BCEWithLogitsLoss **参数:** - - **reduction** (str) - 指定输出结果的计算方式。可选值有:'mean','sum',和'none'。如果为'none',则不执行reduction。默认值:'mean'。 + - **reduction** (str) - 指定输出结果的计算方式。可选值有:`mean` , `sum` ,和 `none` 。如果为 `none` ,则不执行reduction。默认值:`mean` 。 - **weight** (Tensor, optional) - 指定每个批次二值交叉熵的权重。如果不是None,将进行广播,其shape与 `logits` 的shape保持一致,数据类型为float16或float32。默认值:None。 - **pos_weight** (Tensor, optional) - 指定正样本的权重。是一个长度等于分类数的向量。如果不是None,将进行广播,其shape与 `logits` 的shape保持一致,数据类型必须为float16或float32。默认值:None。 @@ -35,7 +35,7 @@ mindspore.nn.BCEWithLogitsLoss **输出:** - Tensor或Scalar,如果 `reduction` 为"none",其shape需和 `logits` 相同。否则,将返回Scalar。 + Tensor或Scalar,如果 `reduction` 为 `none` ,其shape需和 `logits` 相同。否则,将返回Scalar。 **异常:** @@ -43,6 +43,6 @@ mindspore.nn.BCEWithLogitsLoss - **TypeError** - `weight` 或 `pos_weight` 是 Parameter。 - **TypeError** - `weight` 或 `pos_weight` 的数据类型既不是float16也不是float32。 - **ValueError** - `weight` 或 `pos_weight` 不能广播到shape为 `logits` 的Tensor。 - - **ValueError** - `reduction` 不为'none'、'mean'或'sum'。 + - **ValueError** - `reduction` 不为 `none` 、`mean` 或 `sum` 。 diff --git a/docs/api/api_python/ops/mindspore.ops.BCEWithLogitsLoss.rst b/docs/api/api_python/ops/mindspore.ops.BCEWithLogitsLoss.rst index 21a22d50946..a305d79a704 100644 --- a/docs/api/api_python/ops/mindspore.ops.BCEWithLogitsLoss.rst +++ b/docs/api/api_python/ops/mindspore.ops.BCEWithLogitsLoss.rst @@ -3,7 +3,7 @@ mindspore.ops.BCEWithLogitsLoss .. py:class:: mindspore.ops.BCEWithLogitsLoss(reduction='mean') - 输入经过sigmoid激活函数后作为预测值,BCEWithLogitsLoss计算预测值和目标值之间的二值交叉熵损失。 + 输入经过sigmoid激活函数后作为预测值,`BCEWithLogitsLoss` 计算预测值和目标值之间的二值交叉熵损失。 将输入 `logits` 设置为 :math:`X` ,输入 `labels` 设置为 :math:`Y` ,输入 `weight` 设置为 :math:`W` ,输出设置为 :math:`L` 。则, @@ -25,7 +25,7 @@ mindspore.ops.BCEWithLogitsLoss **参数:** - - **reduction** (str) - 指定用于输出结果的计算方式。取值为'mean'、'sum'或'none',不区分大小写。如果'none',则不执行reduction。默认值:'mean'。 + - **reduction** (str) - 指定用于输出结果的计算方式。取值为 `mean` 、 `sum` 或 `none` ,不区分大小写。如果 `none` ,则不执行 `reduction` 。默认值:`mean` 。 **输入:** @@ -36,10 +36,10 @@ mindspore.ops.BCEWithLogitsLoss **输出:** - Tensor或Scalar,如果 `reduction` 为'none',则为shape和数据类型与输入'logits'相的Tensor。否则,输出为Scalar。 + Tensor或Scalar,如果 `reduction` 为 `none` ,则为shape和数据类型与输入 `logits` 相同的Tensor。否则,输出为Scalar。 **异常:** - **TypeError** - 任何输入的数据类型既不是float16也不是float32。 - **ValueError** - `weight` 或 `pos_weight` 不能广播到shape为 `logits` 的Tensor。 - - **ValueError** - `reduction` 不为'none'、'mean'或'sum'。 \ No newline at end of file + - **ValueError** - `reduction` 不为 `none` 、 `mean` 或 `sum` 。 \ No newline at end of file diff --git a/docs/api/api_python/ops/mindspore.ops.func_binary_cross_entropy_with_logits.rst b/docs/api/api_python/ops/mindspore.ops.func_binary_cross_entropy_with_logits.rst new file mode 100644 index 00000000000..63bf2968ac9 --- /dev/null +++ b/docs/api/api_python/ops/mindspore.ops.func_binary_cross_entropy_with_logits.rst @@ -0,0 +1,42 @@ +mindspore.ops.binary_cross_entropy_with_logits +============================================== + +.. py:function:: mindspore.ops.binary_cross_entropy_with_logits(logits, label, weight, pos_weight, reduction='mean') + + 输入经过sigmoid激活函数后作为预测值,`binary_cross_entropy_with_logits` 计算预测值和目标值之间的二值交叉熵损失。 + + 将输入 `logits` 设置为 :math:`X` ,输入 `labels` 设置为 :math:`Y` ,输入 `weight` 设置为 :math:`W` ,输出设置为 :math:`L` 。则, + + .. math:: + \begin{array}{ll} \\ + L_{ij} = -W_{ij}[Y_{ij}log(X_{ij}) + (1 - Y_{ij})log(1 - X_{ij})] + \end{array} + + :math:`i` 表示 :math:`i^{th}` 样例, :math:`j` 表示类别。则, + + .. math:: + \ell(x, y) = \begin{cases} + L, & \text{if reduction} = \text{'none';}\\ + \operatorname{mean}(L), & \text{if reduction} = \text{'mean';}\\ + \operatorname{sum}(L), & \text{if reduction} = \text{'sum'.} + \end{cases} + + :math:`\ell` 表示计算损失的方法。有三种方法:第一种方法是直接提供损失值,第二种方法是计算所有损失的平均值,第三种方法是计算所有损失的总和。 + + **参数:** + + - **logits** (Tensor) - 输入预测值,任意维度的Tensor。其数据类型为float16或float32。 + - **label** (Tensor) - 输入目标值,shape与 `logits` 相同。数据类型为float16或float32。 + - **weight** (Tensor) - 指定每个批次二值交叉熵的权重。支持广播,使其shape与 `logits` 的shape保持一致。数据类型必须为float16或float32。 + - **pos_weight** (Tensor) - 指定正类的权重。是一个长度等于分类数的向量。支持广播,使其shape与 `logits` 的shape保持一致。数据类型必须为float16或float32。 + - **reduction** (str) - 指定用于输出结果的计算方式。取值为 `mean` 、 `sum` 或 `none` ,不区分大小写。如果 `none` ,则不执行 `reduction` 。默认值:`mean` 。 + + **返回:** + + Tensor或Scalar,如果 `reduction` 为 `none` ,则为shape和数据类型与输入 `logits` 相同的Tensor。否则,输出为Scalar。 + + **异常:** + + - **TypeError** - 任何输入的数据类型既不是float16也不是float32。 + - **ValueError** - `weight` 或 `pos_weight` 不能广播到shape为 `logits` 的Tensor。 + - **ValueError** - `reduction` 不为 `none` 、 `mean` 或 `sum` 。 \ No newline at end of file diff --git a/docs/api/api_python_en/mindspore.ops.functional.rst b/docs/api/api_python_en/mindspore.ops.functional.rst index d052c49b7a8..a8f58bd0a4d 100644 --- a/docs/api/api_python_en/mindspore.ops.functional.rst +++ b/docs/api/api_python_en/mindspore.ops.functional.rst @@ -336,6 +336,7 @@ Array Operation mindspore.ops.adaptive_max_pool2d mindspore.ops.affine_grid mindspore.ops.batch_to_space_nd + mindspore.ops.binary_cross_entropy_with_logits mindspore.ops.broadcast_to mindspore.ops.col2im mindspore.ops.concat diff --git a/mindspore/python/mindspore/common/tensor.py b/mindspore/python/mindspore/common/tensor.py index 0f94ecf6535..20e4d72e32a 100644 --- a/mindspore/python/mindspore/common/tensor.py +++ b/mindspore/python/mindspore/common/tensor.py @@ -1370,8 +1370,8 @@ class Tensor(Tensor_): >>> input_x = Tensor(np.array([[[-4.5, -1.5], [7.0, 6.0]], [[2.5, 0.5], [3.0, 9.0]]]), mindspore.float32) >>> sign, output = input_x.log_matrix_determinant() >>> print(sign) - >>> print(output) [-1. 1.] + >>> print(output) [2.80336046e+00 3.04452229e+00] """ self._init_check() diff --git a/mindspore/python/mindspore/ops/function/math_func.py b/mindspore/python/mindspore/ops/function/math_func.py index ec52371635e..47bc0695b33 100644 --- a/mindspore/python/mindspore/ops/function/math_func.py +++ b/mindspore/python/mindspore/ops/function/math_func.py @@ -2162,8 +2162,8 @@ def log_matrix_determinant(x): >>> input_x = Tensor(np.array([[[-4.5, -1.5], [7.0, 6.0]], [[2.5, 0.5], [3.0, 9.0]]]), mindspore.float32) >>> sign, output = ops.log_matrix_determinant(input_x) >>> print(sign) - >>> print(output) [-1. 1.] + >>> print(output) [2.80336046e+00 3.04452229e+00] """ return log_matrix_determinant_(x) diff --git a/mindspore/python/mindspore/ops/operations/math_ops.py b/mindspore/python/mindspore/ops/operations/math_ops.py index 25091ab93a1..faababdfd4a 100644 --- a/mindspore/python/mindspore/ops/operations/math_ops.py +++ b/mindspore/python/mindspore/ops/operations/math_ops.py @@ -5297,8 +5297,8 @@ class LogMatrixDeterminant(Primitive): >>> op = LogMatrixDeterminant() >>> sign, output = op(input_x) >>> print(sign) - >>> print(output) [-1. 1.] + >>> print(output) [2.80336046e+00 3.04452229e+00] """