fix issue I60Q6L I5YQCT I5YQ9F I5YE52

This commit is contained in:
panfengfeng 2022-11-11 16:15:26 -05:00
parent 5fc1efc4aa
commit 5e91012009
36 changed files with 326 additions and 144 deletions

View File

@ -154,6 +154,7 @@ mindspore.ops.function
mindspore.ops.addcdiv
mindspore.ops.addcmul
mindspore.ops.addn
mindspore.ops.addr
mindspore.ops.arccosh
mindspore.ops.arcsin
mindspore.ops.arctan

View File

@ -3,26 +3,4 @@ mindspore.Tensor.addr
.. py:method:: mindspore.Tensor.addr(vec1, vec2, beta=1, alpha=1)
计算 `vec1``vec2` 的外积,并将其添加到输入张量中。
如果 `vec1` 是一个大小为 :math:`N` 的向量, `vec2` 是一个大小为 :math:`M` 的向量,那么 `x` 必须是可广播的,且
带有一个大小为 :math:`(N, M)` 的矩阵,同时 `out` 是一个大小为 :math:`(N, M)` 的矩阵。
可选值 `bata``alpha` 分别是 `vec1``vec2` 外积的扩展因子以及附加矩阵 `x` 。如果 `beta` 为0那么 `x` 将被忽略。
.. math::
output = β x + α (vec1 ⊗ vec2)
参数:
- **vec1** (Tensor) - 第一个需要相乘的Tensorshape大小为 :math:`(N,)`
- **vec2** (Tensor) - 第二个需要相乘的Tensorshape大小为 :math:`(M,)`
- **beta** (scalar[int, float, bool], 可选) - `x` (β)的乘法器。 `beta` 必须是int或float或bool类型默认值1。
- **alpha** (scalar[int, float, bool], 可选) - `mat` @ `vec` (α)的乘法器。 `alpha` 必须是int或float或bool类型默认值1。
返回:
Tensorshape大小为 :math:`(N, M)` ,数据类型与 `x` 相同。
异常:
- **TypeError** - `x``vec1``vec2` 不是Tensor。
- **TypeError** - `x``vec1``vec2` 的数据类型不一致。
- **ValueError** - 如果 `x` 不是一个二维Tensor。如果 `vec1` `vec2` 不是一个一维Tensor。
详情请参考 :func:`mindspore.ops.addr`

View File

@ -0,0 +1,6 @@
mindspore.Tensor.fold
========================
.. py:method:: mindspore.Tensor.fold(output_size, kernel_size, dilation=1, padding=0, stride=1)
详情请参考 :func:`mindspore.ops.fold`

View File

@ -0,0 +1,6 @@
mindspore.Tensor.greater
========================
.. py:method:: mindspore.Tensor.greater(other)
详情请参考 :func:`mindspore.ops.greater`

View File

@ -0,0 +1,6 @@
mindspore.Tensor.greater_equal
==============================
.. py:method:: mindspore.Tensor.greater_equal(other)
详情请参考 :func:`mindspore.ops.greater_equal`

View File

@ -0,0 +1,6 @@
mindspore.Tensor.igamma
=======================
.. py:method:: mindspore.Tensor.igamma(other)
详情请参考 :func:`mindspore.ops.igamma`

View File

@ -0,0 +1,6 @@
mindspore.Tensor.igammac
========================
.. py:method:: mindspore.Tensor.igammac(other)
详情请参考 :func:`mindspore.ops.igammac`

View File

@ -0,0 +1,6 @@
mindspore.Tensor.index_add
==========================
.. py:method:: mindspore.Tensor.index_addindex_add(dim, index, source, *, alpha=1)
详情请参考 :func:`mindspore.ops.index_add`

View File

@ -0,0 +1,6 @@
mindspore.Tensor.isinf
======================
.. py:method:: mindspore.Tensor.isinf()
详情请参考 :func:`mindspore.ops.isinf`

View File

@ -0,0 +1,6 @@
mindspore.Tensor.isnan
======================
.. py:method:: mindspore.Tensor.isnan()
详情请参考 :func:`mindspore.ops.isnan`

View File

@ -0,0 +1,6 @@
mindspore.Tensor.le
===================
.. py:method:: mindspore.Tensor.le(other)
详情请参考 :func:`mindspore.ops.le`

View File

@ -0,0 +1,6 @@
mindspore.Tensor.less
=====================
.. py:method:: mindspore.Tensor.less(other)
详情请参考 :func:`mindspore.ops.less`

View File

@ -0,0 +1,6 @@
mindspore.Tensor.logical_and
============================
.. py:method:: mindspore.Tensor.logical_and(other)
详情请参考 :func:`mindspore.ops.logical_and`

View File

@ -0,0 +1,6 @@
mindspore.Tensor.logical_not
============================
.. py:method:: mindspore.Tensor.logical_not()
详情请参考 :func:`mindspore.ops.logical_not`

View File

@ -0,0 +1,6 @@
mindspore.Tensor.logical_or
===========================
.. py:method:: mindspore.Tensor.logical_or(other)
详情请参考 :func:`mindspore.ops.logical_or`

View File

@ -0,0 +1,6 @@
mindspore.Tensor.logical_xor
============================
.. py:method:: mindspore.Tensor.logical_xor(other)
详情请参考 :func:`mindspore.ops.logical_xor`

View File

@ -3,11 +3,11 @@ mindspore.Tensor.searchsorted
.. py:method:: mindspore.Tensor.searchsorted(v, side='left', sorter=None)
查找应插入元素以保存顺序的位置索引。
查找应插入元素在有序数列中的位置索引。
参数:
- **v** (Union[int, float, bool, list, tuple, Tensor]) - 要插入元素的值。
- **side** ('left', 'right', 可选) - 如果参数值为'left',则给出找到的第一个合适位置的索引。如果参数值为'right'则返回最后一个这样的索引。如果没有合适的索引则返回0或N其中N是Tensor的长度。默认值'left'。
- **side** (str, 可选) - 如果参数值为'left',则给出找到的第一个合适位置的索引。如果参数值为'right'则返回最后一个这样的索引。如果没有合适的索引则返回0或N其中N是Tensor的长度。默认值'left'。
- **sorter** (Union[int, float, bool, list, tuple, Tensor]) - 整数索引的可选一维数组将Tensor按升序排序。它们通常是NumPy argsort方法的结果。默认值None。
返回:

View File

@ -13,8 +13,6 @@ mindspore.Tensor.sigmoid
其中 :math:`x_i` 是原Tensor的元素。
关于Sigmoid的图例见 `Sigmoid <https://en.wikipedia.org/wiki/Sigmoid_function#/media/File:Logistic-curve.svg>`_
返回:
Tensor数据类型和shape与原Tensor的相同。

View File

@ -0,0 +1,6 @@
mindspore.Tensor.unfold
=======================
.. py:method:: mindspore.Tensor.unfold(kernel_size, dilation=1, padding=0, stride=1)
详情请参考 :func:`mindspore.ops.unfold`

View File

@ -5,19 +5,4 @@
确定输入Tensor每个位置上的元素是否为无穷大或无穷小。
.. math::
out_i = \begin{cases}
& \text{ if } x_{i} = \text{Inf},\ \ True \\
& \text{ if } x_{i} \ne \text{Inf},\ \ False
\end{cases}
其中 :math:`Inf` 表示不是一个数字。
输入:
- **x** (Tensor) - IsInf的输入shape :math:`(N, *)` ,其中 :math:`*` 表示任意数量的附加维度。
输出:
Tensorshape与相同的输入数据的类型为bool。
异常:
- **TypeError** - 如果 `x` 不是Tensor。
更多参考详见 :func:`mindspore.ops.isinf`

View File

@ -0,0 +1,28 @@
mindspore.ops.addr
==================
.. py:function:: mindspore.ops.addr(x, vec1, vec2, beta=1, alpha=1)
计算 `vec1``vec2` 的外积,并将其添加到 `x` 中。
如果 `vec1` 是一个大小为 :math:`N` 的向量, `vec2` 是一个大小为 :math:`M` 的向量,那么 `x` 必须是可广播的,且
带有一个大小为 :math:`(N, M)` 的矩阵,同时返回是一个大小为 :math:`(N, M)` 的矩阵。
可选值 `bata``alpha` 分别是 `vec1``vec2` 外积的扩展因子以及附加矩阵 `x` 。如果 `beta` 为0那么 `x` 将被忽略。
.. math::
output = β x + α (vec1 ⊗ vec2)
参数:
- **vec1** (Tensor) - 第一个需要相乘的Tensorshape大小为 :math:`(N,)`
- **vec2** (Tensor) - 第二个需要相乘的Tensorshape大小为 :math:`(M,)`
- **beta** (scalar[int, float, bool], 可选) - `x` (β)的乘法器。 `beta` 必须是int或float或bool类型默认值1。
- **alpha** (scalar[int, float, bool], 可选) - `vec1``vec2` (α)的乘法器。 `alpha` 必须是int或float或bool类型默认值1。
返回:
Tensorshape大小为 :math:`(N, M)` ,数据类型与 `x` 相同。
异常:
- **TypeError** - `x``vec1``vec2` 不是Tensor。
- **TypeError** - `x``vec1``vec2` 的数据类型不一致。
- **ValueError** - 如果 `x` 不是一个二维Tensor。如果 `vec1` `vec2` 不是一个一维Tensor。

View File

@ -1,7 +1,7 @@
mindspore.ops.bartlett_window
=============================
.. py:function:: mindspore.ops.bartlett_window(window_length, periodic=True, *, dtype=mstype.float32)
.. py:function:: mindspore.ops.bartlett_window(window_length, periodic=True, *, dtype=None)
巴特利特窗口函数。
@ -14,19 +14,17 @@ mindspore.ops.bartlett_window
2 - \frac{2n}{N - 1} & \text{if } \frac{N - 1}{2} < n < N \\
\end{cases},
\text{where : N is the full window size.}
其中N是总的窗口长度 `window_length` n为小于N的自然数 [0, 1, ..., N-1]。
其中N是总的窗口长度 `window_length`
参数:
- **window_length** (Tensor) - 返回窗口的大小数据类型为int32int64。输入数据的值为[0,1000000]的整数。
- **window_length** (Tensor) - 返回窗口的大小数据类型为int32int64。输入数据的值为[0, 1000000]的整数。
- **periodic** (bool可选) - 如果为True返回一个窗口作为周期函数使用。如果为False返回一个对称窗口。默认值True。
关键字参数:
- **dtype** (mindspore.dtype可选) - 输出数据类型目前只支持float16、float32和float64。默认值mindspore.float32
- **dtype** (mindspore.dtype可选) - 输出数据类型目前只支持float16、float32和float64。默认值None
返回:
1D Tensor大小为 `window_length` ,数据类型与 `dtype` 一致。
1D Tensor大小为 `window_length` ,数据类型与 `dtype` 一致。如果 `dtype` 为None则数据类型为float32。
异常:
- **TypeError** - `window_length` 不是Tensor。

View File

@ -13,14 +13,14 @@ mindspore.ops.blackman_window
其中N是总的窗口长度 `window_length` n为小于N的自然数 [0, 1, ..., N-1]。
参数:
- **window_length** (Tensor) - 返回窗口的大小数据类型为int32int64。输入数据的值为[0,1000000]的整数。
- **window_length** (Tensor) - 返回窗口的大小数据类型为int32int64。输入数据的值为[0, 1000000]的整数。
- **periodic** (bool可选) - 如果为True返回一个窗口作为周期函数使用。如果为False返回一个对称窗口。默认值True。
关键字参数:
- **dtype** (mindspore.dtype可选) - 输出数据类型目前只支持float16、float32和float64。默认值None。
返回:
1D Tensor大小为 `window_length` ,数据类型与 `dtype` 一致。
1D Tensor大小为 `window_length` ,数据类型与 `dtype` 一致。如果 `dtype` 为None则数据类型为float32。
异常:
- **TypeError** - `window_length` 不是Tensor。

View File

@ -8,18 +8,19 @@ mindspore.ops.elu
对输入的每个元素计算ELU。该激活函数定义如下
.. math::
\text{ELU}(x)= \left\{
\begin{array}{align}
\alpha(e^{x} - 1) & \text{if } x \le 0\\
x & \text{if } x \gt 0\\
\end{array}\right.
其中,:math:`x` 表示输入的元素:math:`\alpha` 表示 `alpha` 参数, `alpha` 决定ELU的平滑度。
其中,:math:`x` 表示输入Tensor `input_x` :math:`\alpha` 表示 `alpha` 参数, `alpha` 决定ELU的平滑度。
ELU相关图参见 `ELU <https://en.wikipedia.org/wiki/Activation_function#/media/File:Activation_elu.svg>`_
参数:
- **input_x** (Tensor) - ELU的输入为任意维度的Tensor数据类型为float16或float32。
- **alpha** (float) - ELU的alpha值数据类型为浮点数目前仅支持1.0。默认值1.0。
- **alpha** (float) - ELU的alpha值数据类型为float目前仅支持1.0。默认值1.0。
返回:
Tensor输出的shape、数据类型与 `input_x` 相同。

View File

@ -0,0 +1,13 @@
mindspore.ops.greater
=====================
.. py:function:: mindspore.ops.greater(input, other)
按元素比较输入参数 :math:`input > other` 的值输出结果为bool值。
参数:
- **input** (Union[Tensor, number.Number, bool]) - 第一个输入是一个number.Number、bool值或数据类型为 `number <https://www.mindspore.cn/docs/zh-CN/master/api_python/mindspore/mindspore.dtype.html#mindspore.dtype>`_`bool_ <https://www.mindspore.cn/docs/zh-CN/master/api_python/mindspore/mindspore.dtype.html#mindspore.dtype>`_ 的Tensor。
- **other** (Union[Tensor, number.Number, bool]) - 第二个输入当第一个输入是Tensor时第二个输入应该是一个number.Number或bool值或数据类型为number或bool_的Tensor。当第一个输入是Scalar时第二个输入必须是数据类型为number或bool_的Tensor。
返回:
Tensorshape与广播后的shape相同数据类型为bool。

View File

@ -0,0 +1,13 @@
mindspore.ops.greater_equal
===========================
.. py:function:: mindspore.ops.greater_equal(input, other)
按元素比较输入参数 :math:`input >= other` 的值输出结果为bool值。
参数:
- **input** (Union[Tensor, number.Number, bool]) - 第一个输入是一个number.Number、bool值或数据类型为 `number <https://www.mindspore.cn/docs/zh-CN/master/api_python/mindspore/mindspore.dtype.html#mindspore.dtype>`_`bool_ <https://www.mindspore.cn/docs/zh-CN/master/api_python/mindspore/mindspore.dtype.html#mindspore.dtype>`_ 的Tensor。
- **other** (Union[Tensor, number.Number, bool]) - 第二个输入当第一个输入是Tensor时第二个输入应该是一个number.Number或bool值或数据类型为number或bool_的Tensor。当第一个输入是Scalar时第二>个输入必须是数据类型为number或bool_的Tensor。
返回:
Tensorshape与广播后的shape相同数据类型为bool。

View File

@ -0,0 +1,35 @@
mindspore.ops.igamma
====================
.. py:function:: mindspore.ops.igamma(input, other)
计算正规化的下层不完全伽马函数。
如果我们将 `input` 比作 `a` `other` 比作 `x` ,则正规化的下层不完全伽马函数可以表示成:
.. math::
P(a, x) = gamma(a, x) / Gamma(a) = 1 - Q(a, x)
其中,
.. math::
gamma(a, x) = \int_0^x t^{a-1} \exp^{-t} dt
为下层不完全伽马函数。
:math:`Q(a, x)` 则为正规化的上层完全伽马函数。
.. warning::
这是一个实验原型,可以更改和/或删除。
参数:
- **input** (Tensor) - 输入Tensor数据类型为float32或者float64。
- **other** (Tensor) - 输入Tensor数据类型为float32或者float64`input` 保持一致。
返回:
Tensor数据类型与 `input``other` 相同。
异常:
- **TypeError** - 如果 `input` 或者 `other` 不是Tensor。
- **TypeError** - 如果 `other` 的数据类型不是float32或者float64。
- **TypeError** - 如果 `other` 的数据类型与 `input` 不相同。
- **ValueError** - 如果 `input` 不能广播成shape与 `other` 相同的Tensor。

View File

@ -0,0 +1,35 @@
mindspore.ops.igammac
=====================
.. py:function:: mindspore.ops.igammac(input, other)
计算正规化的上层不完全伽马函数。
如果我们将 `input` 比作 `a` `other` 比作 `x` ,则正规化的下层不完全伽马函数可以表示成:
.. math::
\(Q(a, x) = Gamma(a, x) / Gamma(a) = 1 - P(a, x)\)
其中,
.. math::
\(Gamma(a, x) = int_{x}^{\infty} t^{a-1} exp(-t) dt\)
为上层不完全伽马函数。
:math:`P(a, x)` 则为正规化的下层完全伽马函数。
.. warning::
这是一个实验原型,可以更改和/或删除。
参数:
- **input** (Tensor) - 输入Tensor数据类型为float32或者float64。
- **other** (Tensor) - 输入Tensor数据类型为float32或者float64`input` 保持一致。
返回:
Tensor数据类型与 `input``other` 相同。
异常:
- **TypeError** - 如果 `input` 或者 `other` 不是Tensor。
- **TypeError** - 如果 `other` 的数据类型不是float32或者float64。
- **TypeError** - 如果 `other` 的数据类型与 `input` 不相同。
- **ValueError** - 如果 `input` 不能广播成shape与 `other` 相同的Tensor。

View File

@ -0,0 +1,23 @@
mindspore.ops.isinf
===================
.. py:function:: mindspore.ops.isinf(input)
确定输入Tensor每个位置上的元素是否为无穷大或无穷小。
.. math::
out_i = \begin{cases}
& \text{ if } x_{i} = \text{Inf},\ \ True \\
& \text{ if } x_{i} \ne \text{Inf},\ \ False
\end{cases}
其中 :math:`Inf` 表示不是一个数字。
参数:
- **input** (Tensor) - IsInf的输入shape :math:`(N, *)` ,其中 :math:`*` 表示任意数量的附加维度。
返回:
Tensorshape与相同的输入数据的类型为bool。
异常:
- **TypeError** - 如果 `input` 不是Tensor。

View File

@ -0,0 +1,20 @@
mindspore.ops.logical_xor
=========================
.. py:function:: mindspore.ops.logical_xor(input, other)
逐元素计算两个Tensor的逻辑异或运算。
.. math::
out_{i} = x_{i} \oplus y_{i}
参数:
- **input** (Tensor) - 第一个输入是数据类型为bool的Tensor。
- **other** (Tensor) - 第二个输入是Tesor与第一个输入进行异或计算其中数据类型为bool。
返回:
Tensor其shape与广播后的shape相同数据类型为bool。
异常:
- **TypeError** - 如果 `input``other` 不是数据类型为bool的Tensor。
- **ValueError** - 如果两个输入的shape不能被广播。

View File

@ -0,0 +1,21 @@
mindspore.ops.mse_loss
======================
.. py:function:: mindspore.ops.mse_loss(input_x, target, reduction='mean')
计算预测值和标签值之间的均方误差。
更多参考详见 :class:`mindspore.nn.MSELoss`
参数:
- **input_x** (Tensor) - 任意维度的Tensor。
- **target** (Tensor) - 输入标签任意维度的Tensor。大多数场景下与 `input_x` 具有相同的shape。
但是也支持在两者shape不相同的情况下通过广播保持一致。
- **reduction** (str可选) - 对loss应用特定的缩减方法。可选"mean"、"none"、"sum"。默认值:"mean"
返回:
Tensor数据类型为float如果 `reduction` 为 'mean'或'sum'时shape为0如果 `reduction` 为 'none'输入的shape则是广播之后的shape。
异常:
- **ValueError** - 如果 `reduction` 的值不是以下其中之一时:'none'、 'mean'、 'sum'。
- **ValueError** - 如果 `input_x``target` 的shape不相同且无法广播。

View File

@ -154,6 +154,7 @@ Element-by-Element Operations
mindspore.ops.addcdiv
mindspore.ops.addcmul
mindspore.ops.addn
mindspore.ops.addr
mindspore.ops.arccos
mindspore.ops.arccosh
mindspore.ops.arcsin

View File

@ -919,33 +919,8 @@ class Tensor(Tensor_):
def addcdiv(self, x1, x2, value):
r"""
Performs the element-wise division of tensor x1 by tensor x2,
multiply the result by the scalar value and add it to input_data.
.. math::
y[i] = input\_data[i] + value[i] * (x1[i] / x2[i])
Args:
x1 (Tensor): The numerator tensor.
x2 (Tensor): The denominator tensor.
value (Tensor): The multiplier for tensor x1/x2.
Returns:
Tensor, has the same shape and dtype as x1/x2.
Supported Platforms:
``Ascend`` ``GPU`` ``CPU``
Examples:
>>> x = Tensor(np.array([1, 1, 1, 1]), mindspore.float32)
>>> x1 = Tensor(np.array([1, 2, 3, 4]), mindspore.float32)
>>> x2 = Tensor(np.array([4, 3, 2, 1]), mindspore.float32)
>>> value = Tensor([1], mindspore.float32)
>>> y = x.addcdiv(x1, x2, value)
>>> print(y)
[1.25 1.6666667 2.5 5. ]
For details, please refer to :func:`mindspore.ops.addcdiv`.
"""
self._init_check()
return tensor_operator_registry.get('addcdiv')()(self, x1, x2, value)
@ -1044,48 +1019,8 @@ class Tensor(Tensor_):
def addr(self, vec1, vec2, beta=1, alpha=1):
r"""
Executes the outer-product of `vec1` and `vec2` and adds it to the input tensor.
If `vec1` is a vector of size :math:`N` and `vec2` is a vector of size :math:`M`, then `x` must be
broadcastable with a matrix of size :math:`(N, M)` and `out` will be a matrix of size :math:`(N, M)`.
The optional values `beta` and `alpha` are the scale factors on the outer product between `vec1` and `vec2`
and the added matrix `x` respectively. If `beta` is 0, then `x` will be ignored.
.. math::
output = β x + α (vec1 vec2)
Args:
vec1 (Tensor): The first tensor to be multiplied. The shape of the tensor is :math:`(N,)`.
vec2 (Tensor): The second tensor to be multiplied. The shape of the tensor is :math:`(M,)`.
beta (scalar[int, float, bool], optional): Multiplier for `x` (β). The `beta` must be int or
float or bool, Default: 1.
alpha (scalar[int, float, bool], optional): Multiplier for `vec1` @ `vec2` (α). The `alpha` must
be int or float or bool, Default: 1.
Returns:
Tensor, the shape of the output tensor is :math:`(N, M)`, has the same dtype as `x`.
Raises:
TypeError: If `x`, `vec1`, `vec2` is not a Tensor.
TypeError: If inputs `x`, `vec1`, 'vec2' are not the same dtype.
ValueError: If `x` is not a 2-D Tensor.
If `vec1`, `vec2` is not a 1-D Tensor.
Supported Platforms:
``Ascend`` ``GPU`` ``CPU``
Examples:
>>> x = Tensor(np.array([[2., 2.], [3., 2.], [3., 4.]], np.float32))
>>> vec1 = Tensor(np.array([2., 3., 2.], np.float32))
>>> vec2 = Tensor(np.array([3, 4], np.float32))
>>> output = x.addr(vec1, vec2)
>>> print(output)
[[ 8. 10.]
[12. 14.]
[ 9. 12.]]
For details, please refer to :func:`mindspore.ops.addr`.
"""
self._init_check()
return tensor_operator_registry.get('addr')(self, vec1, vec2, beta=beta, alpha=alpha)

View File

@ -3961,13 +3961,13 @@ def adjoint(x):
def addr(x, vec1, vec2, beta=1, alpha=1):
"""
Executes the outer-product of `vec1` and `vec2` and adds it to the vec1rix `x`.
Executes the outer-product of `vec1` and `vec2` and adds it to the matrix `x`.
If `vec1` is a vector of size :vec1:`N` and `vec2` is a vector of size :vec1:`M`, then `x` must be broadcastable
with a vec1rix of size :vec1:`(N, M)` and `out` will be a vec1rix of size :vec1:`(N, M)`.
with a matrix of size :vec1:`(N, M)` and `out` will be a matrix of size :vec1:`(N, M)`.
The optional values `beta` and `alpha` are the scale factors on the outer product between `vec1` and `vec2`
and the added vec1rix `x` respectively. If `beta` is 0, then `x` will be ignored.
and the added matrix `x` respectively. If `beta` is 0, then `x` will be ignored.
.. vec1::
output = β x + α (vec1 vec2)
@ -3978,7 +3978,7 @@ def addr(x, vec1, vec2, beta=1, alpha=1):
vec2 (Tensor): The second tensor to be multiplied. The shape of the tensor is :vec1:`(M,)`.
beta (scalar[int, float, bool], optional): Multiplier for `x` (β). The `beta` must be int or
float or bool, Default: 1.
alpha (scalar[int, float, bool], optional): Multiplier for `vec1` @ `vec2` (α). The `alpha` must
alpha (scalar[int, float, bool], optional): Multiplier for `vec1` `vec2` (α). The `alpha` must
be int or float or bool, Default: 1.
Outputs:
@ -7029,15 +7029,16 @@ def greater_equal(input, other):
def igamma(input, other):
r"""
Calculates lower regularized incomplete Gamma function.
If we define `input` as `a` and `other` as `x`, the lower regularized incomplete Gamma function is defined as:
.. math::
P(a, x) = gamma(a, x) / Gamma(a) = 1 - Q(a, x)
\(P(a, x) = Gamma(a, x) / Gamma(a) = 1 - Q(a, x)\)
where
.. math::
gamma(a, x) = \int_0^x t^{a-1} \exp^{-t} dt
\(Gamma(a, x) = \int_0^x t^{a-1} \exp^{-t} dt\)
is the lower incomplete Gamma function.
@ -7051,7 +7052,7 @@ def igamma(input, other):
other (Tensor): The second input tensor. With float32 or float64 type. `other` should have
the same dtype with `input`.
Outputs:
Returns:
Tensor, has the same dtype as `input` and `other`.
Raises:
@ -7079,12 +7080,18 @@ def igammac(input, other):
Calculates upper regularized incomplete Gamma function.
If we define `input` as `a` and `other` as `x`, the upper regularized incomplete Gamma function is defined as:
.. math::
\(Q(a, x) = Gamma(a, x) / Gamma(a) = 1 - P(a, x)\)
where
.. math::
\(Gamma(a, x) = int_{x}^{\infty} t^{a-1} exp(-t) dt\)
is the upper incomplete Gama function.
Note, above P(a, x) (Igamma) is the lower regularized complete Gamma function.
Above :math:`P(a, x)` is the lower regularized complete Gamma function.
.. warning::
This is an experimental prototype that is subject to change and/or deletion.
@ -7094,7 +7101,7 @@ def igammac(input, other):
other (Tensor): The second input tensor. With float32 or float64 type. `other` should have
the same dtype with `input`.
Outputs:
Returns:
Tensor, has the same dtype as `input` and `other`.
Raises:
@ -7163,7 +7170,7 @@ def logical_xor(input, other):
Args:
input (Tensor): The first input is a tensor whose data type is bool.
other (Tensor): The second input is a the tensor to compute XOR with the first input.
other (Tensor): The second input is a tensor to compute XOR with the first input.
Datatype must be bool.
Returns:

View File

@ -4464,7 +4464,7 @@ def elu(input_x, alpha=1.0):
x & \text{if } x \gt 0\\
\end{array}\right.
Where :math:`x` is the element of input Tensor, :math:`\alpha` is param `alpha`,
Where :math:`x` is the element of input Tensor `input_x`, :math:`\alpha` is param `alpha`,
it determines the smoothness of ELU.
The picture about ELU looks like this `ELU <https://en.wikipedia.org/wiki/
Activation_function#/media/File:Activation_elu.svg>`_ .
@ -4735,8 +4735,8 @@ def mse_loss(input_x, target, reduction='mean'):
target (Tensor): The input label. Tensor of any dimension, same shape as the `input_x` in common cases.
However, it supports that the shape of `input_x` is different from the shape of `target`
and they should be broadcasted to each other.
reduction (str): Type of reduction to be applied to loss. The optional values are "mean", "none" and "sum".
Default: "mean".
reduction (str, optional): Type of reduction to be applied to loss.
The optional values are "mean", "none" and "sum". Default: "mean".
Returns:
Tensor, loss of type float, the shape is zero if `reduction` is 'mean' or 'sum',

View File

@ -43,7 +43,7 @@ def blackman_window(window_length, periodic=True, *, dtype=None):
periodic (bool, optional): If True, returns a window to be used as periodic function.
If False, return a symmetric window. Default: True.
Keyword args:
Keyword Args:
dtype (mindspore.dtype, optional): the desired data type of returned tensor.
Only float16, float32 and float64 is allowed. Default: None.
@ -56,7 +56,7 @@ def blackman_window(window_length, periodic=True, *, dtype=None):
TypeError: If `periodic` is not a bool.
TypeError: If `dtype` is not one of: float16, float32, float64.
TypeError: If the type of `window_length` is not one of: int32, int64.
ValueError: If the value range of `window_length` is not [0,1000000].
ValueError: If the value range of `window_length` is not [0, 1000000].
ValueError: If the dimension of `window_length` is not 0.
Supported Platforms:
@ -103,7 +103,7 @@ def bartlett_window(window_length, periodic=True, *, dtype=None):
periodic (bool, optional): If True, returns a window to be used as periodic function.
If False, return a symmetric window. Default: True.
Keyword args:
Keyword Args:
dtype (mindspore.dtype, optional): The desired datatype of returned tensor.
Only float16, float32 and float64 are allowed. Default: None.
@ -116,7 +116,7 @@ def bartlett_window(window_length, periodic=True, *, dtype=None):
TypeError: If the type of `window_length` is not one of: int32, int64.
TypeError: If `periodic` is not a bool.
TypeError: If `dtype` is not one of: float16, float32, float64.
ValueError: If the value range of `window_length` is not [0,1000000].
ValueError: If the value range of `window_length` is not [0, 1000000].
ValueError: If the dimension of `window_length` is not 0.
Supported Platforms: