!37140 [MS][DOC] fix bug of doc

Merge pull request !37140 from mengyuanli/code_docs_bug_fix
This commit is contained in:
i-robot 2022-07-04 06:29:08 +00:00 committed by Gitee
commit 87f2993534
No known key found for this signature in database
GPG Key ID: 173E9B9CA92EEF8F
6 changed files with 20 additions and 38 deletions

View File

@ -1,11 +1,11 @@
mindspore.ops.ResizeBilinear1D
==============================
mindspore.ops.ResizeLinear1D
============================
.. py:class:: mindspore.ops.ResizeBilinear1D(coordinate_transformation_mode="align_corners")
.. py:class:: mindspore.ops.ResizeLinear1D(coordinate_transformation_mode="align_corners")
使用线性插值调整Tensor到指定的大小。
使用线性插值调整输入 `x` 为指定大小。
调整输入三维Tensor的宽且可以输入不同数据类型的图像但输出的数据类型只能是float32
调整输入 `x` 的宽
使用通用resize功能请参考 :func:`mindspore.ops.interpolate`
@ -19,11 +19,11 @@ mindspore.ops.ResizeBilinear1D
**输入:**
- **x** (Tensor) - ResizeBilinear的输入三维的Tensor其shape为 :math:`(batch, channels, width)`。支持以下数据类型float16, float32, double。
- **size** (Tensor) - 指定Tensor的新尺寸一维的Tensor其shape为 :math:`(1)` 数据类型为int64。
- **size** (Tensor) - 指定 `x`的新尺寸一维的Tensor其shape为 :math:`(1)` 数据类型为int64。
**输出:**
Tensor调整大小后的图像。shape为 :math:`(batch, channels,new\_width)` 的三维Tensor数据类型和输入是一致的。
Tensor调整大小后的Tensor。shape为 :math:`(batch, channels,new\_width)` 的三维Tensor数据类型和输入是一致的。
**异常:**

View File

@ -1,11 +0,0 @@
mindspore.ops.TensorScatterElements
===================================
.. py:class:: mindspore.ops.TensorScatterElements
根据指定的更新值和输入索引通过reduction操作更新输入Tensor的值。
.. warning::
如果 `indices` 中有多个索引向量对应于同一位置,则输出中该位置值是不确定的。
更多参考详见 :func:`mindspore.ops.tensor_scatter_elements`

View File

@ -3,7 +3,7 @@ mindspore.ops.interpolate
.. py:function:: mindspore.ops.interpolate(x, roi=None, scales=None, sizes=None, coordinate_transformation_mode="align_corners", mode="linear")
使用插值函数resize输入。
使用插值函数resize输入 `x`
.. warning::
- 实验特性,接口可能发生变化。
@ -28,9 +28,9 @@ mindspore.ops.interpolate
**异常:**
- **TypeError** - `x` 不是Tensor。
- **TypeError** - `scales` 不是float类型的tuple。
- **TypeError** - `size` 不是int64类型的tuple。
- **TypeError** - `scales` 不是float类型的tuple。
- **TypeError** - `size` 不是int64类型的tuple。
- **TypeError** - `coordinate_transformation_mode` 不是string。
- **TypeError** - `coordinate_transformation_mode` 不在支持的列表中。
- **TypeError** - `mode` 不是string。
- **TypeError** - `mode` 不是string类型
- **TypeError** - `mode` 不在支持的列表中。

View File

@ -3,10 +3,9 @@
.. py:function:: mindspore.ops.tensor_scatter_elements(input_x, indices, updates, axis=0, reduction="none")
根据指定的更新值和输入索引通过reduction运算更新输入Tensor的值。
根据索引逐元素更新输入Tensor的值。
接受三个输入, `input_x``indices``updates` 。三者的秩都大于等于1。`input_x` 中的数据和 `updates` 中的数据会按照 `indices` 提取出来
`reduction` 指定的操作并更新结果到输出。`reduction` 是 "none" 时, `input_x` 的值取 `updates` 的值到输出,`reduction` 是 "add" 时,
`updates` 的值和 `input_x` 的值相加输出。下面看一个三维的例子:
`reduction` 指定的操作并更新结果到输出。下面看一个三维的例子:
.. code-block::
@ -20,13 +19,13 @@
如果 `indices` 中有多个索引向量对应于同一位置,则输出中该位置值是不确定的。
.. note::
如果 `indices` 的某些值超出范围,则相应的 `updates` 不会更新到 `input_x` 而不是抛出索引错误。
如果 `indices` 的某些值超出范围,则相应的 `updates` 不会更新到 `input_x` 也不会抛出索引错误。
**参数:**
- **input_x** (Tensor) - 输入Tensor。 `input_x` 其rank必须至少为1。
- **indices** (Tensor) - 输入Tensor的索引数据类型为int32或int64的。其rank必须和 `input_x` 一致。取值范围是[-s, s), 这里的s是 `input_x``axis` 指定轴的size。
- **updates** (Tensor) - 指定与 `input_x` 进行reduction操作的Tensor其数据类型与输入相同。updates.shape应等于indices.shape。
- **updates** (Tensor) - 指定与 `input_x` 进行reduction操作的Tensor其数据类型与输入的数据类型相同。updates的shape必须等于indices的shape。
- **axis** (int) - `input_x` reduction操作的轴默认值是0。取值范围是[-r, r)其中r是 `input_x` 的秩。
- **reduction** (str) - 指定进行的reduction操作。默认值是"none",可选"add"。

View File

@ -77,7 +77,6 @@ Neural Network
mindspore.ops.Padding
mindspore.ops.ResizeNearestNeighbor
mindspore.ops.ResizeBilinear
mindspore.ops.ResizeLinear1D
Loss Function
^^^^^^^^^^^^^
@ -461,7 +460,6 @@ Array Operation
mindspore.ops.TensorScatterMin
mindspore.ops.TensorScatterSub
mindspore.ops.TensorScatterUpdate
mindspore.ops.TensorScatterElements
mindspore.ops.TensorShape
mindspore.ops.Tile
mindspore.ops.Transpose

View File

@ -1284,8 +1284,8 @@ def smooth_l1_loss(logits, labels, beta=1.0, reduction='none'):
.. math::
L =
\begin{cases}
\operatorname{mean}(L_{i}), & \text{if reduction} = \text{`mean`;}\\
\operatorname{sum}(L_{i}), & \text{if reduction} = \text{`sum`.}
\operatorname{mean}(L_{i}), & \text{if reduction} = \text{'mean';}\\
\operatorname{sum}(L_{i}), & \text{if reduction} = \text{'sum'.}
\end{cases}
Here :math:`\text{beta}` controls the point where the loss function changes from quadratic to linear.
@ -1295,17 +1295,13 @@ def smooth_l1_loss(logits, labels, beta=1.0, reduction='none'):
For Ascend platform, the 'reduction' is not support set to 'sum' or 'mean' for now.
Args:
logits (Tensor): Tensor of shape :math:`(N, *)` where :math:`*` means, any number of additional dimensions.
labels (Tensor): Ground truth data, tensor of shape :math:`(N, *)`, same shape and dtype as the `logits`.
beta (float): A parameter used to control the point where the function will change from
quadratic to linear. Default: 1.0.
reduction (str): Apply specific reduction method to the output: 'none', 'mean' or 'sum'. Default: 'none'.
Inputs:
- **logits** (Tensor) - Tensor of shape :math:`(N, *)` where :math:`*` means, any number of
additional dimensions. Data type must be float16 or float32.
- **labels** (Tensor) - Ground truth data, tensor of shape :math:`(N, *)`,
same shape and dtype as the `logits`.
Outputs:
Returns:
Tensor or Scalar, if `reduction` is 'none', then output is a tensor and has the same shape as `logits`.
Otherwise it is a scalar.