fix doc bug

This commit is contained in:
chenweitao_295 2022-01-08 17:47:30 +08:00
parent f6a20f1e62
commit e3bbc44e2f
8 changed files with 21 additions and 82 deletions

View File

@ -9,7 +9,7 @@ Cell
mindspore.nn.Cell
Containers
容器
-----------
.. cnmsplatformautosummary::
@ -18,7 +18,7 @@ Containers
mindspore.nn.CellList
mindspore.nn.SequentialCell
Convolution Layers
卷积层
--------------------
.. cnmsplatformautosummary::
@ -40,7 +40,7 @@ Gradient
mindspore.nn.Jvp
mindspore.nn.Vjp
Non-linear Activations
非线性激活函数
----------------------
.. cnmsplatformautosummary::
@ -69,14 +69,13 @@ Utilities
mindspore.nn.Flatten
mindspore.nn.Tril
Loss Functions
损失函数
--------------
.. cnmsplatformautosummary::
:toctree: nn
mindspore.nn.L1Loss
mindspore.nn.MAELoss
mindspore.nn.MSELoss
mindspore.nn.SmoothL1Loss

View File

@ -3,7 +3,7 @@ mindspore.nn.HShrink
.. py:class:: mindspore.nn.HShrink(lambd=0.5)
按元素计算Hard Shrink函数公式定义如下
Hard Shrink激活函数,按输入元素计算输出,公式定义如下:
.. math::
\text{HardShrink}(x) =
@ -15,7 +15,7 @@ mindspore.nn.HShrink
**参数:**
**lambd** (float) - Hard Shrink公式定义的阈值。默认值0.5。
**lambd** (float) - Hard Shrink公式定义的阈值 :math:`\lambda` 。默认值0.5。
**输入:**
@ -31,8 +31,8 @@ mindspore.nn.HShrink
**异常:**
- **TypeError** - `lambd` 不是float。
- **TypeError** - `input_x` 的dtype既不是float16也不是float32
- **TypeError** - `lambd` 数据类型不是float。
- **TypeError** - `input_x` 数据类型不是float
**样例:**

View File

@ -3,9 +3,7 @@ mindspore.nn.HSigmoid
.. py:class:: mindspore.nn.HSigmoid
Hard Sigmoid激活函数。
按元素计算Hard Sigmoid激活函数。
Hard Sigmoid激活函数按元素计算输出。
Hard Sigmoid定义为
@ -16,7 +14,7 @@ mindspore.nn.HSigmoid
**输入:**
- **input_x** (Tensor) - Hard Sigmoid的输入。shape为 :math:`(N,*)` 其中 :math:`*` 表示任意的附加维度。
- **input_x** (Tensor) - Hard Sigmoid的输入任意维度的Tensor
**输出:**

View File

@ -27,7 +27,7 @@ mindspore.nn.LogSoftmax
**输出:**
Tensor数据类型和shape与`x`相同,值的范围在[-inf,0)。
Tensor数据类型和shape与`x`相同,输出值的范围在[-inf,0)。
**异常:**

View File

@ -1,60 +0,0 @@
mindspore.nn.MAELoss
=============================
.. py:class:: mindspore.nn.MAELoss(reduction='mean')
MAELoss用于测量 :math:`x`:math:`y` 元素之间的平均绝对误差,其中 :math:`x` 是输入Tensor :math:`y` 是标签Tensor。
假设 :math:`x`:math:`y` 为一维Tensor长度 :math:`N` ,则计算 :math:`x`:math:`y` 的unreduced loss即reduction参数设置为"none")的公式如下:
.. math::
\ell(x, y) = L = \{l_1,\dots,l_N\}^\top, \quad \text{with } l_n = \left| x_n - y_n \right|,
其中, :math:`N` 为batch size。如果 `reduction` 不是"none",则:
.. math::
\ell(x, y) =
\begin{cases}
\operatorname{mean}(L), & \text{if reduction} = \text{'mean';}\\
\operatorname{sum}(L), & \text{if reduction} = \text{'sum'.}
\end{cases}
**参数:**
**reduction** (str) - 应用于loss的reduction类型。取值为"mean""sum",或"none"。默认值:"mean"。
**输入:**
- **logits** (Tensor) - shape为 :math:`(M, *)` 的tensor其中 :math:`*` 表示任意的附加维度。
- **labels** (Tensor) - shape为 :math:`(N, *)` 的tensor在通常情况下与 `logits` 的shape相同。但是如果 `logits``labels` 的shape不同需要保证他们之间可以互相广播。
**输出:**
Tensor为加权loss float tensor如果 `reduction` 为"mean"或"sum"则shape为零如果 `reduction` 为"none"则输出的shape为输入Tensor广播后的shape。
**异常:**
**ValueError** - `reduction` 不为"mean""sum",或"none"。
**支持平台:**
``Ascend`` ``GPU`` ``CPU``
**样例:**
>>> #用例1logits.shape = labels.shape = (3,)
>>> loss = nn.MAELoss()
>>> logits = Tensor(np.array([1, 2, 3]), mindspore.float32)
>>> labels = Tensor(np.array([1, 2, 2]), mindspore.float32)
>>> output = loss(logits, labels)
>>> print(output)
0.33333334
>>> #用例2logits.shape = (3,), labels.shape = (2, 3)
>>> loss = nn.MAELoss(reduction='none')
>>> logits = Tensor(np.array([1, 2, 3]), mindspore.float32)
>>> labels = Tensor(np.array([[1, 1, 1], [1, 2, 2]]), mindspore.float32)
>>> output = loss(logits, labels)
>>> print(output)
[[0. 1. 2.]
[0. 0. 1.]]

View File

@ -3,7 +3,7 @@ mindspore.nn.MSELoss
.. py:class:: mindspore.nn.MSELoss(reduction='mean')
MSELoss是用来测量 :math:`x`:math:`y` 对应元素之间的均方差,其中 :math:`x` 是输入Tensor :math:`y` 是标签Tensor
用于计算预测值与标签值之间的均方误差
假设 :math:`x`:math:`y` 为一维Tensor长度 :math:`N` ,则计算 :math:`x`:math:`y` 的unreduced loss即reduction参数设置为"none")的公式如下:
@ -25,16 +25,18 @@ mindspore.nn.MSELoss
**输入:**
- **logits** (Tensor) - shape为 :math:`(N, *)` 的Tensor其中 :math:`*` 表示任意的附加维度。
- **labels** (Tensor) - shape为 :math:`(N, *)` 的Tensor在通常情况下与 `logits` 的shape相同。但是如果 `logits``labels` 的shape不同需要保证他们之间可以互相广播。
- **logits** (Tensor) - 输入预测值任意维度的Tensor。
- **labels** (Tensor) - 输入标签,任意维度的Tensor在通常情况下与 `logits` 的shape相同。但是如果 `logits``labels` 的shape不同需要保证他们之间可以互相广播。
**输出:**
Tensor为loss float tensor如果 `reduction` 为"mean"或"sum"则shape为零如果 `reduction` 为"none"则输出的shape为输入Tensor广播后的shape。
Tensor为float类型的loss如果 `reduction` 为"mean"或"sum"则shape为0
如果 `reduction` 为"none"则输出的shape为输入Tensor广播后的shape。
**异常:**
**ValueError** - `reduction` 不为"mean""sum",或"none"。
**ValueError** - `logits``labels` 的shape不同且不能广播。
**支持平台:**

View File

@ -3,9 +3,9 @@ mindspore.nn.Sigmoid
.. py:class:: mindspore.nn.Sigmoid
Sgmoid激活函数。
Sigmoid激活函数。
按元素计算Sgmoid激活函数。
按元素计算Sigmoid激活函数。
Sigmoid函数定义为
@ -19,7 +19,7 @@ mindspore.nn.Sigmoid
**输入:**
- **x** (Tensor) - 数据类型为float16或float32的Sgmoid输入。shape为 :math:`(N,*)` ,其中 :math:`*` 表示任意的附加维度。
- **x** (Tensor) - 数据类型为float16或float32的Sgmoid输入。任意维度的Tensor
**输出:**

View File

@ -16,7 +16,7 @@ mindspore.nn.Tanh
**输入:**
- **x** (Tensor) - 数据类型为float16或float32的Tanh输入。shape为 :math:`(N,*)` ,其中 :math:`*` 表示任意的附加维度。
- **x** (Tensor) - 任意维度的Tensor数据类型为float16或float32的输入。
**输出:**