!48078 fix docs silu softmin diff
Merge pull request !48078 from Henry Shi/fix_docs_silu_softmin
This commit is contained in:
commit
26cbd5f6e1
|
@ -5,18 +5,21 @@ mindspore.ops.diff
|
|||
|
||||
沿着给定维度计算输入Tensor的n阶前向差分。
|
||||
|
||||
.. note::
|
||||
- 不支持空Tensor, 如果传入了空Tensor,会出现ValueError。
|
||||
|
||||
参数:
|
||||
- **x** (Tensor) - 输入Tensor。x元素的数据类型不支持uint16, uint32 或 uint64。
|
||||
- **n** (int, optional) - 递归计算差分的阶数,目前只支持1。默认值:1。
|
||||
- **axis** (int, optional) - 计算差分的维度,默认是最后一维。默认值:-1。
|
||||
- **prepend** (Tensor, optional) - 在计算差分之前,沿 axis 将值添加到 input 或附加到 input。它们的维度必须与输入的维度相同,并且它们的shape必须与输入的shape匹配,但 axis 除外。默认值:None。
|
||||
- **append** (Tensor, optional) - 在计算差分之前,沿 axis 将值添加到 input 或附加到 input。它们的维度必须与输入的维度相同,并且它们的shape必须与输入的shape匹配,但 axis 除外。默认值:None。
|
||||
- **x** (Tensor) - 输入Tensor。x元素的数据类型不支持uint16、uint32 或 uint64。
|
||||
- **n** (int,可选) - 递归计算差分的阶数,目前只支持1。默认值:1。
|
||||
- **axis** (int,可选)) - 计算差分的维度,默认是最后一维。默认值:-1。
|
||||
- **prepend** (Tensor,可选)) - 在计算差分之前,沿 axis 将值添加到 input 或附加到 input。它们的维度必须与输入的维度相同,并且它们的shape必须与输入的shape匹配,但 axis 除外。默认值:None。
|
||||
- **append** (Tensor,可选)) - 在计算差分之前,沿 axis 将值添加到 input 或附加到 input。它们的维度必须与输入的维度相同,并且它们的shape必须与输入的shape匹配,但 axis 除外。默认值:None。
|
||||
|
||||
返回:
|
||||
Tensor, 输入Tensor。
|
||||
Tensor,输入Tensor差分后的结果。
|
||||
|
||||
异常:
|
||||
- **TypeError** - 如果 `x` 不是Tensor。
|
||||
- **TypeError** - 如果 `x` 的元素的数据类型是uint16, uint32 或 uint64。
|
||||
- **TypeError** - 如果 `x` 的元素的数据类型是uint16、uint32 或 uint64。
|
||||
- **TypeError** - 如果 `x` 的维度小于1。
|
||||
- **RuntimeError** - 如果 `n` 不是1。
|
|
@ -3,26 +3,17 @@ mindspore.ops.silu
|
|||
|
||||
.. py:function:: mindspore.ops.silu(x)
|
||||
|
||||
激活函数SiLU(Sigmoid Linear Unit)。
|
||||
|
||||
该激活函数定义为:
|
||||
按输入逐元素计算激活函数SiLU(Sigmoid Linear Unit)。该激活函数定义为:
|
||||
|
||||
.. math::
|
||||
\text{SiLU}(x) = x * \sigma(x),
|
||||
|
||||
其中 :math:`x_i` 是输入的元素, math:`\sigma(x)` Logistic Sigmoid函数。
|
||||
其中,math:`\sigma(x)` 是Logistic Sigmoid函数。
|
||||
|
||||
.. math::
|
||||
|
||||
\text{sigma}(x_i) = \frac{1}{1 + \exp(-x_i)},
|
||||
|
||||
关于SiLU的图例见 `SiLU <https://en.wikipedia.org/wiki/Activation_function#/media/File:Swish.svg>`_ 。
|
||||
其中,:math:`x_i` 是输入x的元素。
|
||||
|
||||
参数:
|
||||
- **x** (Tensor) - 数据类型为float16, float32, float64, complex64 或 complex128的输入。任意维度的Tensor。
|
||||
|
||||
返回:
|
||||
Tensor,数据类型和shape与 `x` 的相同。
|
||||
|
||||
异常:
|
||||
- **TypeError** - `x` 的数据类型不是float16, float32, float64, complex64 或 complex128。
|
||||
更多详情请参考 `mindspore.nn.SiLU`。
|
||||
|
|
|
@ -4264,11 +4264,11 @@ def imag(input):
|
|||
return F.imag(input)
|
||||
|
||||
|
||||
def diff(x):
|
||||
def diff(x, n=1, axis=-1, prepend=None, append=None):
|
||||
r"""
|
||||
For details, please refer to :func:`mindspore.ops.diff`.
|
||||
"""
|
||||
return F.diff(x)
|
||||
return F.diff(x, n, axis, prepend, append)
|
||||
|
||||
|
||||
def frac(x):
|
||||
|
|
|
@ -2549,12 +2549,12 @@ class Tensor(Tensor_):
|
|||
self._init_check()
|
||||
return tensor_operator_registry.get('matrix_determinant')(self)
|
||||
|
||||
def diff(self):
|
||||
def diff(self, n=1, axis=-1, prepend=None, append=None):
|
||||
r"""
|
||||
For details, please refer to :func:`mindspore.ops.diff`.
|
||||
"""
|
||||
self._init_check()
|
||||
return tensor_operator_registry.get('diff')(self)
|
||||
return tensor_operator_registry.get('diff')(self, n, axis, prepend, append)
|
||||
|
||||
def frac(self):
|
||||
r"""
|
||||
|
|
|
@ -619,7 +619,7 @@ class SiLU(Cell):
|
|||
`SiLU <https://en.wikipedia.org/wiki/Activation_function#/media/File:Swish.svg>`_ .
|
||||
|
||||
Inputs:
|
||||
- **x** (Tensor) - Input with the data type float16 or float32. Tensor of arbitrary dimensions.
|
||||
- **x** (Tensor) - Input with the data type float16 or float32.
|
||||
|
||||
Outputs:
|
||||
Tensor, with the same type and shape as the `x`.
|
||||
|
|
|
@ -2210,8 +2210,6 @@ def soft_shrink(x, lambd=0.5):
|
|||
|
||||
def silu(x):
|
||||
r"""
|
||||
Sigmoid Linear Unit.
|
||||
|
||||
Computes Sigmoid Linear Unit of input element-wise. The SiLU function is defined as:
|
||||
|
||||
.. math::
|
||||
|
|
|
@ -22,7 +22,7 @@ import mindspore.nn as nn
|
|||
|
||||
class Net(nn.Cell):
|
||||
def construct(self, x):
|
||||
return x.diff()
|
||||
return x.diff(n=1, axis=-1, prepend=None, append=None)
|
||||
|
||||
|
||||
@pytest.mark.level0
|
||||
|
|
Loading…
Reference in New Issue