From 035b7337d1c9009369d599afbdcf9dd735cd5a50 Mon Sep 17 00:00:00 2001 From: Henry Date: Fri, 20 Jan 2023 11:30:25 +0800 Subject: [PATCH] fix docs spi --- .../api_python/ops/mindspore.ops.func_diff.rst | 17 ++++++++++------- .../api_python/ops/mindspore.ops.func_silu.rst | 17 ++++------------- .../mindspore/_extends/parse/standard_method.py | 4 ++-- mindspore/python/mindspore/common/tensor.py | 4 ++-- .../python/mindspore/nn/layer/activation.py | 2 +- .../python/mindspore/ops/function/nn_func.py | 2 -- tests/st/tensor/test_diff.py | 2 +- 7 files changed, 20 insertions(+), 28 deletions(-) diff --git a/docs/api/api_python/ops/mindspore.ops.func_diff.rst b/docs/api/api_python/ops/mindspore.ops.func_diff.rst index 9465ebf1e19..396b47f0fa6 100644 --- a/docs/api/api_python/ops/mindspore.ops.func_diff.rst +++ b/docs/api/api_python/ops/mindspore.ops.func_diff.rst @@ -5,18 +5,21 @@ mindspore.ops.diff 沿着给定维度计算输入Tensor的n阶前向差分。 + .. note:: + - 不支持空Tensor, 如果传入了空Tensor,会出现ValueError。 + 参数: - - **x** (Tensor) - 输入Tensor。x元素的数据类型不支持uint16, uint32 或 uint64。 - - **n** (int, optional) - 递归计算差分的阶数,目前只支持1。默认值:1。 - - **axis** (int, optional) - 计算差分的维度,默认是最后一维。默认值:-1。 - - **prepend** (Tensor, optional) - 在计算差分之前,沿 axis 将值添加到 input 或附加到 input。它们的维度必须与输入的维度相同,并且它们的shape必须与输入的shape匹配,但 axis 除外。默认值:None。 - - **append** (Tensor, optional) - 在计算差分之前,沿 axis 将值添加到 input 或附加到 input。它们的维度必须与输入的维度相同,并且它们的shape必须与输入的shape匹配,但 axis 除外。默认值:None。 + - **x** (Tensor) - 输入Tensor。x元素的数据类型不支持uint16、uint32 或 uint64。 + - **n** (int,可选) - 递归计算差分的阶数,目前只支持1。默认值:1。 + - **axis** (int,可选)) - 计算差分的维度,默认是最后一维。默认值:-1。 + - **prepend** (Tensor,可选)) - 在计算差分之前,沿 axis 将值添加到 input 或附加到 input。它们的维度必须与输入的维度相同,并且它们的shape必须与输入的shape匹配,但 axis 除外。默认值:None。 + - **append** (Tensor,可选)) - 在计算差分之前,沿 axis 将值添加到 input 或附加到 input。它们的维度必须与输入的维度相同,并且它们的shape必须与输入的shape匹配,但 axis 除外。默认值:None。 返回: - Tensor, 输入Tensor。 + Tensor,输入Tensor差分后的结果。 异常: - **TypeError** - 如果 `x` 不是Tensor。 - - **TypeError** - 如果 `x` 的元素的数据类型是uint16, uint32 或 uint64。 + - **TypeError** - 如果 `x` 的元素的数据类型是uint16、uint32 或 uint64。 - **TypeError** - 如果 `x` 的维度小于1。 - **RuntimeError** - 如果 `n` 不是1。 \ No newline at end of file diff --git a/docs/api/api_python/ops/mindspore.ops.func_silu.rst b/docs/api/api_python/ops/mindspore.ops.func_silu.rst index 7739f5bb382..bf4ce34f46f 100644 --- a/docs/api/api_python/ops/mindspore.ops.func_silu.rst +++ b/docs/api/api_python/ops/mindspore.ops.func_silu.rst @@ -3,26 +3,17 @@ mindspore.ops.silu .. py:function:: mindspore.ops.silu(x) - 激活函数SiLU(Sigmoid Linear Unit)。 - - 该激活函数定义为: + 按输入逐元素计算激活函数SiLU(Sigmoid Linear Unit)。该激活函数定义为: .. math:: \text{SiLU}(x) = x * \sigma(x), - 其中 :math:`x_i` 是输入的元素, math:`\sigma(x)` Logistic Sigmoid函数。 + 其中,math:`\sigma(x)` 是Logistic Sigmoid函数。 .. math:: \text{sigma}(x_i) = \frac{1}{1 + \exp(-x_i)}, - 关于SiLU的图例见 `SiLU `_ 。 + 其中,:math:`x_i` 是输入x的元素。 - 参数: - - **x** (Tensor) - 数据类型为float16, float32, float64, complex64 或 complex128的输入。任意维度的Tensor。 - - 返回: - Tensor,数据类型和shape与 `x` 的相同。 - - 异常: - - **TypeError** - `x` 的数据类型不是float16, float32, float64, complex64 或 complex128。 \ No newline at end of file + 更多详情请参考 `mindspore.nn.SiLU`。 diff --git a/mindspore/python/mindspore/_extends/parse/standard_method.py b/mindspore/python/mindspore/_extends/parse/standard_method.py index 9008096e2c1..92a71d26530 100644 --- a/mindspore/python/mindspore/_extends/parse/standard_method.py +++ b/mindspore/python/mindspore/_extends/parse/standard_method.py @@ -4264,11 +4264,11 @@ def imag(input): return F.imag(input) -def diff(x): +def diff(x, n=1, axis=-1, prepend=None, append=None): r""" For details, please refer to :func:`mindspore.ops.diff`. """ - return F.diff(x) + return F.diff(x, n, axis, prepend, append) def frac(x): diff --git a/mindspore/python/mindspore/common/tensor.py b/mindspore/python/mindspore/common/tensor.py index 3f2bd42cd74..812585ca0b8 100644 --- a/mindspore/python/mindspore/common/tensor.py +++ b/mindspore/python/mindspore/common/tensor.py @@ -2548,12 +2548,12 @@ class Tensor(Tensor_): self._init_check() return tensor_operator_registry.get('matrix_determinant')(self) - def diff(self): + def diff(self, n=1, axis=-1, prepend=None, append=None): r""" For details, please refer to :func:`mindspore.ops.diff`. """ self._init_check() - return tensor_operator_registry.get('diff')(self) + return tensor_operator_registry.get('diff')(self, n, axis, prepend, append) def frac(self): r""" diff --git a/mindspore/python/mindspore/nn/layer/activation.py b/mindspore/python/mindspore/nn/layer/activation.py index 8b75c47163e..6e6dac495de 100644 --- a/mindspore/python/mindspore/nn/layer/activation.py +++ b/mindspore/python/mindspore/nn/layer/activation.py @@ -619,7 +619,7 @@ class SiLU(Cell): `SiLU `_ . Inputs: - - **x** (Tensor) - Input with the data type float16 or float32. Tensor of arbitrary dimensions. + - **x** (Tensor) - Input with the data type float16 or float32. Outputs: Tensor, with the same type and shape as the `x`. diff --git a/mindspore/python/mindspore/ops/function/nn_func.py b/mindspore/python/mindspore/ops/function/nn_func.py index c0aafbd5778..1295617c2b3 100644 --- a/mindspore/python/mindspore/ops/function/nn_func.py +++ b/mindspore/python/mindspore/ops/function/nn_func.py @@ -2210,8 +2210,6 @@ def soft_shrink(x, lambd=0.5): def silu(x): r""" - Sigmoid Linear Unit. - Computes Sigmoid Linear Unit of input element-wise. The SiLU function is defined as: .. math:: diff --git a/tests/st/tensor/test_diff.py b/tests/st/tensor/test_diff.py index c260aed94fa..685de3ab65e 100644 --- a/tests/st/tensor/test_diff.py +++ b/tests/st/tensor/test_diff.py @@ -22,7 +22,7 @@ import mindspore.nn as nn class Net(nn.Cell): def construct(self, x): - return x.diff() + return x.diff(n=1, axis=-1, prepend=None, append=None) @pytest.mark.level0