Merge pull request !42027 from luojianing/code_docs_master
This commit is contained in:
i-robot 2022-09-15 08:22:54 +00:00 committed by Gitee
commit e3d1a76d5f
No known key found for this signature in database
GPG Key ID: 173E9B9CA92EEF8F
8 changed files with 11 additions and 12 deletions

View File

@ -3,7 +3,7 @@
.. py:class:: mindspore.ops.AllReduce(op=ReduceOp.SUM, group=GlobalComm.WORLD_COMM_GROUP)
使用指定方式对通信组内的所有设备的Tensor数据进行规约操作所有设备都得到相同的结果
使用指定方式对通信组内的所有设备的Tensor数据进行规约操作所有设备都得到相同的结果
.. note::
AllReduce操作暂不支持"prod"。集合中的所有进程的Tensor必须具有相同的shape和格式。用户在使用之前需要设置环境变量运行下面的例子获取详情请点击官方网站 `MindSpore <https://www.mindspore.cn/docs/zh-CN/master/api_python/mindspore.ops.html#通信算子>`_

View File

@ -12,8 +12,8 @@ mindspore.ops.SpaceToBatchND
在划分成块之前,输入的空间维度会根据 `paddings` 填充零。
参数:
- **block_shape** (list[int], tuple[int], int) - 块形状描述空间维度为分割的个数取值需大于1。如果 `block_shape` 为list或者tuple其长度 `M` 为空间维度的长度。如果 `block_shape` 为整数,那么所有空间维度分割的个数均为 `block_shape` 。在Ascend后端 `M` 必须为2。
- **paddings** (tuple, list) - 空间维度的填充大小。包含M个List每一个List包含2个整形值且各值须大于0。 `paddings[i]` 为对空间维度 `i` 的填充对应输入Tensor的维度 `i+offset` `offset` 为空间维度在输入Tensor维度中的偏移量。
- **block_shape** (Union[list(int), tuple(int), int]) - 块形状描述空间维度为分割的个数取值需大于1。如果 `block_shape` 为list或者tuple其长度 `M` 为空间维度的长度。如果 `block_shape` 为整数,那么所有空间维度分割的个数均为 `block_shape` 。在Ascend后端 `M` 必须为2。
- **paddings** (Union[tuple, list]) - 空间维度的填充大小。包含M个List每一个List包含2个整形值且各值须大于0。 `paddings[i]` 为对空间维度 `i` 的填充对应输入Tensor的维度 `i+offset` `offset` 为空间维度在输入Tensor维度中的偏移量。
对空间维度i `input_shape[i+offset]+paddings[i][0]+paddings[i][1]` 必须能被 `block_shape[i]` 整除。
输入:

View File

@ -3,6 +3,6 @@ mindspore.ops.TensorScatterDiv
.. py:class:: mindspore.ops.TensorScatterDiv
根据指定的更新值和输入索引进行除法运算更新输入Tensor的值。当同一索引有不同更新值时更新的结果将是累积除法的结果。此操作:class:`mindspore.ops.ScatterNdDiv` 类似,只是更新后的结果是通过算子output返回而不是直接原地更新input。
根据指定的更新值和输入索引进行除法运算更新输入Tensor的值。当同一索引有不同更新值时更新的结果将是累积除法的结果。此操作更新后的结果是通过算子output返回而不是直接原地更新input。
更多参考相见 :func:`mindspore.ops.tensor_scatter_div`

View File

@ -3,6 +3,6 @@ mindspore.ops.TensorScatterMul
.. py:class:: mindspore.ops.TensorScatterMul
根据指定的更新值和输入索引进行乘法运算更新输入Tensor的值。当同一索引有不同更新值时更新的结果将是累积乘法的结果。此操作:class:`mindspore.ops.ScatterNdMul` 类似,只是更新后的结果是通过算子output返回而不是直接原地更新input。
根据指定的更新值和输入索引进行乘法运算更新输入Tensor的值。当同一索引有不同更新值时更新的结果将是累积乘法的结果。此操作更新后的结果是通过算子output返回而不是直接原地更新input。
更多参考相见 :func:`mindspore.ops.tensor_scatter_mul`

View File

@ -3,7 +3,7 @@
.. py:class:: mindspore.ops.TensorScatterUpdate
根据指定的更新值和输入索引通过更新操作更新输入Tensor的值。此操作几乎等同于使用 :class:`mindspore.ops.ScatterNd` ,只是更新操作应用到 `input_x` Tensor而不是0。
根据指定的更新值和输入索引通过更新操作更新输入Tensor的值。此操作几乎等同于使用 :class:`mindspore.ops.ScatterNdUpdate` ,只是更新操作应用到 `input_x` Tensor而不是0。
`indices` 的rank至少要为2最后一个轴表示每个索引向量的深度。对于每个索引向量 `update` 中必须有相应的值。如果每个索引Tensor的深度与 `input_x` 的rank匹配则每个索引向量对应于 `input_x` 中的Scalar并且每次更新都会更新一个Scalar。如果每个索引Tensor的深度小于 `input_x` 的rank则每个索引向量对应于 `input_x` 中的切片,并且每次更新都会更新一个切片。

View File

@ -713,7 +713,7 @@ class HyperMap(HyperMap_):
Hypermap will apply the set operation to input sequences.
Apply the operations to every element of the sequence or nested sequence. Different
from `Map`, the `HyperMap` supports to apply on nested structure.
from `mindspore.ops.Map`, the `HyperMap` supports to apply on nested structure.
Args:
ops (Union[MultitypeFuncGraph, None]): `ops` is the operation to apply. If `ops` is `None`,

View File

@ -6405,7 +6405,7 @@ class TensorScatterUpdate(_TensorScatterOp):
"""
Creates a new tensor by updating the positions in `input_x` indicated by
`indices`, with values from `update`. This operation is almost equivalent to using
ScatterNd, except that the updates are applied on `input_x` instead of a zero tensor.
`mindspore.ops.ScatterNdUpdate` , except that the updates are applied on `input_x` instead of a zero tensor.
`indices` must have rank at least 2, the last axis is the depth of each index
vectors. For each index vector, there must be a corresponding value in `update`. If
@ -6643,9 +6643,8 @@ class TensorScatterMul(_TensorScatterOp):
"""
Creates a new tensor by multiplying the values from the positions in `input_x` indicated by
`indices`, with values from `updates`. When multiple values are provided for the same
index, the result of the update will be to multiply these values respectively. This operation is almost
equivalent to using ScatterNdSub, except that the updates are applied on output `Tensor`
instead of input `Parameter`.
index, the result of the update will be to multiply these values respectively.
The updates are applied on output `Tensor` instead of input `Parameter`.
Refer to :func:`mindspore.ops.tensor_scatter_mul` for more detail.

View File

@ -6589,7 +6589,7 @@ class ApplyProximalGradientDescent(Primitive):
r"""
Updates relevant entries according to the FOBOS(Forward Backward Splitting) algorithm.
Refer to the paper `Efficient Learning using Forward-Backward Splitting
<http://papers.nips.cc//paper/3793-efficient-learning-using-forward-backward-splitting.pdf>`_ for more detail
<http://papers.nips.cc//paper/3793-efficient-learning-using-forward-backward-splitting.pdf>`_ for more detail.
.. math::
\begin{array}{ll} \\