forked from mindspore-Ecosystem/mindspore
fix doc bug
This commit is contained in:
parent
f6a20f1e62
commit
e3bbc44e2f
|
@ -9,7 +9,7 @@ Cell
|
|||
|
||||
mindspore.nn.Cell
|
||||
|
||||
Containers
|
||||
容器
|
||||
-----------
|
||||
|
||||
.. cnmsplatformautosummary::
|
||||
|
@ -18,7 +18,7 @@ Containers
|
|||
mindspore.nn.CellList
|
||||
mindspore.nn.SequentialCell
|
||||
|
||||
Convolution Layers
|
||||
卷积层
|
||||
--------------------
|
||||
|
||||
.. cnmsplatformautosummary::
|
||||
|
@ -40,7 +40,7 @@ Gradient
|
|||
mindspore.nn.Jvp
|
||||
mindspore.nn.Vjp
|
||||
|
||||
Non-linear Activations
|
||||
非线性激活函数
|
||||
----------------------
|
||||
|
||||
.. cnmsplatformautosummary::
|
||||
|
@ -69,14 +69,13 @@ Utilities
|
|||
mindspore.nn.Flatten
|
||||
mindspore.nn.Tril
|
||||
|
||||
Loss Functions
|
||||
损失函数
|
||||
--------------
|
||||
|
||||
.. cnmsplatformautosummary::
|
||||
:toctree: nn
|
||||
|
||||
mindspore.nn.L1Loss
|
||||
mindspore.nn.MAELoss
|
||||
mindspore.nn.MSELoss
|
||||
mindspore.nn.SmoothL1Loss
|
||||
|
||||
|
|
|
@ -3,7 +3,7 @@ mindspore.nn.HShrink
|
|||
|
||||
.. py:class:: mindspore.nn.HShrink(lambd=0.5)
|
||||
|
||||
按元素计算Hard Shrink函数,公式定义如下:
|
||||
Hard Shrink激活函数,按输入元素计算输出,公式定义如下:
|
||||
|
||||
.. math::
|
||||
\text{HardShrink}(x) =
|
||||
|
@ -15,7 +15,7 @@ mindspore.nn.HShrink
|
|||
|
||||
**参数:**
|
||||
|
||||
**lambd** (float) - Hard Shrink公式定义的阈值。默认值:0.5。
|
||||
**lambd** (float) - Hard Shrink公式定义的阈值 :math:`\lambda` 。默认值:0.5。
|
||||
|
||||
**输入:**
|
||||
|
||||
|
@ -31,8 +31,8 @@ mindspore.nn.HShrink
|
|||
|
||||
**异常:**
|
||||
|
||||
- **TypeError** - `lambd` 不是float。
|
||||
- **TypeError** - `input_x` 的dtype既不是float16也不是float32。
|
||||
- **TypeError** - `lambd` 数据类型不是float。
|
||||
- **TypeError** - `input_x` 数据类型不是float。
|
||||
|
||||
**样例:**
|
||||
|
||||
|
|
|
@ -3,9 +3,7 @@ mindspore.nn.HSigmoid
|
|||
|
||||
.. py:class:: mindspore.nn.HSigmoid
|
||||
|
||||
Hard Sigmoid激活函数。
|
||||
|
||||
按元素计算Hard Sigmoid激活函数。
|
||||
Hard Sigmoid激活函数,按元素计算输出。
|
||||
|
||||
Hard Sigmoid定义为:
|
||||
|
||||
|
@ -16,7 +14,7 @@ mindspore.nn.HSigmoid
|
|||
|
||||
**输入:**
|
||||
|
||||
- **input_x** (Tensor) - Hard Sigmoid的输入。shape为 :math:`(N,*)` ,其中 :math:`*` 表示任意的附加维度。
|
||||
- **input_x** (Tensor) - Hard Sigmoid的输入,任意维度的Tensor。
|
||||
|
||||
**输出:**
|
||||
|
||||
|
|
|
@ -27,7 +27,7 @@ mindspore.nn.LogSoftmax
|
|||
|
||||
**输出:**
|
||||
|
||||
Tensor,数据类型和shape与`x`相同,值的范围在[-inf,0)。
|
||||
Tensor,数据类型和shape与`x`相同,输出值的范围在[-inf,0)。
|
||||
|
||||
**异常:**
|
||||
|
||||
|
|
|
@ -1,60 +0,0 @@
|
|||
mindspore.nn.MAELoss
|
||||
=============================
|
||||
|
||||
.. py:class:: mindspore.nn.MAELoss(reduction='mean')
|
||||
|
||||
MAELoss用于测量 :math:`x` 和 :math:`y` 元素之间的平均绝对误差,其中 :math:`x` 是输入Tensor, :math:`y` 是标签Tensor。
|
||||
|
||||
假设 :math:`x` 和 :math:`y` 为一维Tensor,长度 :math:`N` ,则计算 :math:`x` 和 :math:`y` 的unreduced loss(即reduction参数设置为"none")的公式如下:
|
||||
|
||||
.. math::
|
||||
\ell(x, y) = L = \{l_1,\dots,l_N\}^\top, \quad \text{with } l_n = \left| x_n - y_n \right|,
|
||||
|
||||
其中, :math:`N` 为batch size。如果 `reduction` 不是"none",则:
|
||||
|
||||
.. math::
|
||||
\ell(x, y) =
|
||||
\begin{cases}
|
||||
\operatorname{mean}(L), & \text{if reduction} = \text{'mean';}\\
|
||||
\operatorname{sum}(L), & \text{if reduction} = \text{'sum'.}
|
||||
\end{cases}
|
||||
|
||||
**参数:**
|
||||
|
||||
**reduction** (str) - 应用于loss的reduction类型。取值为"mean","sum",或"none"。默认值:"mean"。
|
||||
|
||||
**输入:**
|
||||
|
||||
- **logits** (Tensor) - shape为 :math:`(M, *)` 的tensor,其中 :math:`*` 表示任意的附加维度。
|
||||
- **labels** (Tensor) - shape为 :math:`(N, *)` 的tensor,在通常情况下与 `logits` 的shape相同。但是如果 `logits` 和 `labels` 的shape不同,需要保证他们之间可以互相广播。
|
||||
|
||||
**输出:**
|
||||
|
||||
Tensor,为加权loss float tensor,如果 `reduction` 为"mean"或"sum",则shape为零;如果 `reduction` 为"none",则输出的shape为输入Tensor广播后的shape。
|
||||
|
||||
**异常:**
|
||||
|
||||
**ValueError** - `reduction` 不为"mean","sum",或"none"。
|
||||
|
||||
**支持平台:**
|
||||
|
||||
``Ascend`` ``GPU`` ``CPU``
|
||||
|
||||
**样例:**
|
||||
|
||||
>>> #用例1:logits.shape = labels.shape = (3,)
|
||||
>>> loss = nn.MAELoss()
|
||||
>>> logits = Tensor(np.array([1, 2, 3]), mindspore.float32)
|
||||
>>> labels = Tensor(np.array([1, 2, 2]), mindspore.float32)
|
||||
>>> output = loss(logits, labels)
|
||||
>>> print(output)
|
||||
0.33333334
|
||||
>>> #用例2:logits.shape = (3,), labels.shape = (2, 3)
|
||||
>>> loss = nn.MAELoss(reduction='none')
|
||||
>>> logits = Tensor(np.array([1, 2, 3]), mindspore.float32)
|
||||
>>> labels = Tensor(np.array([[1, 1, 1], [1, 2, 2]]), mindspore.float32)
|
||||
>>> output = loss(logits, labels)
|
||||
>>> print(output)
|
||||
[[0. 1. 2.]
|
||||
[0. 0. 1.]]
|
||||
|
|
@ -3,7 +3,7 @@ mindspore.nn.MSELoss
|
|||
|
||||
.. py:class:: mindspore.nn.MSELoss(reduction='mean')
|
||||
|
||||
MSELoss是用来测量 :math:`x` 和 :math:`y` 对应元素之间的均方差,其中 :math:`x` 是输入Tensor, :math:`y` 是标签Tensor。
|
||||
用于计算预测值与标签值之间的均方误差。
|
||||
|
||||
假设 :math:`x` 和 :math:`y` 为一维Tensor,长度 :math:`N` ,则计算 :math:`x` 和 :math:`y` 的unreduced loss(即reduction参数设置为"none")的公式如下:
|
||||
|
||||
|
@ -25,16 +25,18 @@ mindspore.nn.MSELoss
|
|||
|
||||
**输入:**
|
||||
|
||||
- **logits** (Tensor) - shape为 :math:`(N, *)` 的Tensor,其中 :math:`*` 表示任意的附加维度。
|
||||
- **labels** (Tensor) - shape为 :math:`(N, *)` 的Tensor,在通常情况下与 `logits` 的shape相同。但是如果 `logits` 和 `labels` 的shape不同,需要保证他们之间可以互相广播。
|
||||
- **logits** (Tensor) - 输入预测值,任意维度的Tensor。
|
||||
- **labels** (Tensor) - 输入标签,任意维度的Tensor,在通常情况下与 `logits` 的shape相同。但是如果 `logits` 和 `labels` 的shape不同,需要保证他们之间可以互相广播。
|
||||
|
||||
**输出:**
|
||||
|
||||
Tensor,为loss float tensor,如果 `reduction` 为"mean"或"sum",则shape为零;如果 `reduction` 为"none",则输出的shape为输入Tensor广播后的shape。
|
||||
Tensor,为float类型的loss,如果 `reduction` 为"mean"或"sum",则shape为0;
|
||||
如果 `reduction` 为"none",则输出的shape为输入Tensor广播后的shape。
|
||||
|
||||
**异常:**
|
||||
|
||||
**ValueError** - `reduction` 不为"mean","sum",或"none"。
|
||||
**ValueError** - `logits` 和 `labels` 的shape不同,且不能广播。
|
||||
|
||||
**支持平台:**
|
||||
|
||||
|
|
|
@ -3,9 +3,9 @@ mindspore.nn.Sigmoid
|
|||
|
||||
.. py:class:: mindspore.nn.Sigmoid
|
||||
|
||||
Sgmoid激活函数。
|
||||
Sigmoid激活函数。
|
||||
|
||||
按元素计算Sgmoid激活函数。
|
||||
按元素计算Sigmoid激活函数。
|
||||
|
||||
Sigmoid函数定义为:
|
||||
|
||||
|
@ -19,7 +19,7 @@ mindspore.nn.Sigmoid
|
|||
|
||||
**输入:**
|
||||
|
||||
- **x** (Tensor) - 数据类型为float16或float32的Sgmoid输入。shape为 :math:`(N,*)` ,其中 :math:`*` 表示任意的附加维度。
|
||||
- **x** (Tensor) - 数据类型为float16或float32的Sgmoid输入。任意维度的Tensor。
|
||||
|
||||
**输出:**
|
||||
|
||||
|
|
|
@ -16,7 +16,7 @@ mindspore.nn.Tanh
|
|||
|
||||
**输入:**
|
||||
|
||||
- **x** (Tensor) - 数据类型为float16或float32的Tanh输入。shape为 :math:`(N,*)` ,其中 :math:`*` 表示任意的附加维度。
|
||||
- **x** (Tensor) - 任意维度的Tensor,数据类型为float16或float32的输入。
|
||||
|
||||
**输出:**
|
||||
|
||||
|
|
Loading…
Reference in New Issue