!48078 fix docs silu softmin diff

Merge pull request !48078 from Henry Shi/fix_docs_silu_softmin
This commit is contained in:
i-robot 2023-01-29 04:31:07 +00:00 committed by Gitee
commit 26cbd5f6e1
No known key found for this signature in database
GPG Key ID: 173E9B9CA92EEF8F
7 changed files with 20 additions and 28 deletions

View File

@ -5,18 +5,21 @@ mindspore.ops.diff
沿着给定维度计算输入Tensor的n阶前向差分。
.. note::
- 不支持空Tensor, 如果传入了空Tensor会出现ValueError。
参数:
- **x** (Tensor) - 输入Tensor。x元素的数据类型不支持uint16 uint32 或 uint64。
- **n** (int, optional) - 递归计算差分的阶数目前只支持1。默认值1。
- **axis** (int, optional) - 计算差分的维度,默认是最后一维。默认值:-1。
- **prepend** (Tensor, optional) - 在计算差分之前,沿 axis 将值添加到 input 或附加到 input。它们的维度必须与输入的维度相同并且它们的shape必须与输入的shape匹配但 axis 除外。默认值None。
- **append** (Tensor, optional) - 在计算差分之前,沿 axis 将值添加到 input 或附加到 input。它们的维度必须与输入的维度相同并且它们的shape必须与输入的shape匹配但 axis 除外。默认值None。
- **x** (Tensor) - 输入Tensor。x元素的数据类型不支持uint16uint32 或 uint64。
- **n** (int,可选) - 递归计算差分的阶数目前只支持1。默认值1。
- **axis** (int,可选)) - 计算差分的维度,默认是最后一维。默认值:-1。
- **prepend** (Tensor,可选)) - 在计算差分之前,沿 axis 将值添加到 input 或附加到 input。它们的维度必须与输入的维度相同并且它们的shape必须与输入的shape匹配但 axis 除外。默认值None。
- **append** (Tensor,可选)) - 在计算差分之前,沿 axis 将值添加到 input 或附加到 input。它们的维度必须与输入的维度相同并且它们的shape必须与输入的shape匹配但 axis 除外。默认值None。
返回:
Tensor 输入Tensor。
Tensor输入Tensor差分后的结果
异常:
- **TypeError** - 如果 `x` 不是Tensor。
- **TypeError** - 如果 `x` 的元素的数据类型是uint16 uint32 或 uint64。
- **TypeError** - 如果 `x` 的元素的数据类型是uint16uint32 或 uint64。
- **TypeError** - 如果 `x` 的维度小于1。
- **RuntimeError** - 如果 `n` 不是1。

View File

@ -3,26 +3,17 @@ mindspore.ops.silu
.. py:function:: mindspore.ops.silu(x)
激活函数SiLUSigmoid Linear Unit
该激活函数定义为:
按输入逐元素计算激活函数SiLUSigmoid Linear Unit。该激活函数定义为
.. math::
\text{SiLU}(x) = x * \sigma(x),
其中 :math:`x_i` 是输入的元素 math:`\sigma(x)` Logistic Sigmoid函数。
其中math:`\sigma(x)` Logistic Sigmoid函数。
.. math::
\text{sigma}(x_i) = \frac{1}{1 + \exp(-x_i)},
关于SiLU的图例见 `SiLU <https://en.wikipedia.org/wiki/Activation_function#/media/File:Swish.svg>`_
其中,:math:`x_i` 是输入x的元素
参数:
- **x** (Tensor) - 数据类型为float16, float32, float64, complex64 或 complex128的输入。任意维度的Tensor。
返回:
Tensor数据类型和shape与 `x` 的相同。
异常:
- **TypeError** - `x` 的数据类型不是float16, float32, float64, complex64 或 complex128。
更多详情请参考 `mindspore.nn.SiLU`

View File

@ -4264,11 +4264,11 @@ def imag(input):
return F.imag(input)
def diff(x):
def diff(x, n=1, axis=-1, prepend=None, append=None):
r"""
For details, please refer to :func:`mindspore.ops.diff`.
"""
return F.diff(x)
return F.diff(x, n, axis, prepend, append)
def frac(x):

View File

@ -2549,12 +2549,12 @@ class Tensor(Tensor_):
self._init_check()
return tensor_operator_registry.get('matrix_determinant')(self)
def diff(self):
def diff(self, n=1, axis=-1, prepend=None, append=None):
r"""
For details, please refer to :func:`mindspore.ops.diff`.
"""
self._init_check()
return tensor_operator_registry.get('diff')(self)
return tensor_operator_registry.get('diff')(self, n, axis, prepend, append)
def frac(self):
r"""

View File

@ -619,7 +619,7 @@ class SiLU(Cell):
`SiLU <https://en.wikipedia.org/wiki/Activation_function#/media/File:Swish.svg>`_ .
Inputs:
- **x** (Tensor) - Input with the data type float16 or float32. Tensor of arbitrary dimensions.
- **x** (Tensor) - Input with the data type float16 or float32.
Outputs:
Tensor, with the same type and shape as the `x`.

View File

@ -2210,8 +2210,6 @@ def soft_shrink(x, lambd=0.5):
def silu(x):
r"""
Sigmoid Linear Unit.
Computes Sigmoid Linear Unit of input element-wise. The SiLU function is defined as:
.. math::

View File

@ -22,7 +22,7 @@ import mindspore.nn as nn
class Net(nn.Cell):
def construct(self, x):
return x.diff()
return x.diff(n=1, axis=-1, prepend=None, append=None)
@pytest.mark.level0