forked from mindspore-Ecosystem/mindspore
!42027 fix issues
Merge pull request !42027 from luojianing/code_docs_master
This commit is contained in:
commit
e3d1a76d5f
|
@ -3,7 +3,7 @@
|
|||
|
||||
.. py:class:: mindspore.ops.AllReduce(op=ReduceOp.SUM, group=GlobalComm.WORLD_COMM_GROUP)
|
||||
|
||||
使用指定方式对通信组内的所有设备的Tensor数据进行规约操作,所有设备都得到相同的结果
|
||||
使用指定方式对通信组内的所有设备的Tensor数据进行规约操作,所有设备都得到相同的结果。
|
||||
|
||||
.. note::
|
||||
AllReduce操作暂不支持"prod"。集合中的所有进程的Tensor必须具有相同的shape和格式。用户在使用之前需要设置环境变量,运行下面的例子,获取详情请点击官方网站 `MindSpore <https://www.mindspore.cn/docs/zh-CN/master/api_python/mindspore.ops.html#通信算子>`_ 。
|
||||
|
|
|
@ -12,8 +12,8 @@ mindspore.ops.SpaceToBatchND
|
|||
在划分成块之前,输入的空间维度会根据 `paddings` 填充零。
|
||||
|
||||
参数:
|
||||
- **block_shape** (list[int], tuple[int], int) - 块形状描述空间维度为分割的个数,取值需大于1。如果 `block_shape` 为list或者tuple,其长度 `M` 为空间维度的长度。如果 `block_shape` 为整数,那么所有空间维度分割的个数均为 `block_shape` 。在Ascend后端 `M` 必须为2。
|
||||
- **paddings** (tuple, list) - 空间维度的填充大小。包含M个List,每一个List包含2个整形值,且各值须大于0。 `paddings[i]` 为对空间维度 `i` 的填充,对应输入Tensor的维度 `i+offset` , `offset` 为空间维度在输入Tensor维度中的偏移量。
|
||||
- **block_shape** (Union[list(int), tuple(int), int]) - 块形状描述空间维度为分割的个数,取值需大于1。如果 `block_shape` 为list或者tuple,其长度 `M` 为空间维度的长度。如果 `block_shape` 为整数,那么所有空间维度分割的个数均为 `block_shape` 。在Ascend后端 `M` 必须为2。
|
||||
- **paddings** (Union[tuple, list]) - 空间维度的填充大小。包含M个List,每一个List包含2个整形值,且各值须大于0。 `paddings[i]` 为对空间维度 `i` 的填充,对应输入Tensor的维度 `i+offset` , `offset` 为空间维度在输入Tensor维度中的偏移量。
|
||||
对空间维度i, `input_shape[i+offset]+paddings[i][0]+paddings[i][1]` 必须能被 `block_shape[i]` 整除。
|
||||
|
||||
输入:
|
||||
|
|
|
@ -3,6 +3,6 @@ mindspore.ops.TensorScatterDiv
|
|||
|
||||
.. py:class:: mindspore.ops.TensorScatterDiv
|
||||
|
||||
根据指定的更新值和输入索引,进行除法运算更新输入Tensor的值。当同一索引有不同更新值时,更新的结果将是累积除法的结果。此操作与 :class:`mindspore.ops.ScatterNdDiv` 类似,只是更新后的结果是通过算子output返回,而不是直接原地更新input。
|
||||
根据指定的更新值和输入索引,进行除法运算更新输入Tensor的值。当同一索引有不同更新值时,更新的结果将是累积除法的结果。此操作更新后的结果是通过算子output返回,而不是直接原地更新input。
|
||||
|
||||
更多参考相见 :func:`mindspore.ops.tensor_scatter_div`。
|
||||
|
|
|
@ -3,6 +3,6 @@ mindspore.ops.TensorScatterMul
|
|||
|
||||
.. py:class:: mindspore.ops.TensorScatterMul
|
||||
|
||||
根据指定的更新值和输入索引,进行乘法运算更新输入Tensor的值。当同一索引有不同更新值时,更新的结果将是累积乘法的结果。此操作与 :class:`mindspore.ops.ScatterNdMul` 类似,只是更新后的结果是通过算子output返回,而不是直接原地更新input。
|
||||
根据指定的更新值和输入索引,进行乘法运算更新输入Tensor的值。当同一索引有不同更新值时,更新的结果将是累积乘法的结果。此操作更新后的结果是通过算子output返回,而不是直接原地更新input。
|
||||
|
||||
更多参考相见 :func:`mindspore.ops.tensor_scatter_mul`。
|
||||
|
|
|
@ -3,7 +3,7 @@
|
|||
|
||||
.. py:class:: mindspore.ops.TensorScatterUpdate
|
||||
|
||||
根据指定的更新值和输入索引,通过更新操作更新输入Tensor的值。此操作几乎等同于使用 :class:`mindspore.ops.ScatterNd` ,只是更新操作应用到 `input_x` Tensor而不是0。
|
||||
根据指定的更新值和输入索引,通过更新操作更新输入Tensor的值。此操作几乎等同于使用 :class:`mindspore.ops.ScatterNdUpdate` ,只是更新操作应用到 `input_x` Tensor而不是0。
|
||||
|
||||
`indices` 的rank至少要为2,最后一个轴表示每个索引向量的深度。对于每个索引向量, `update` 中必须有相应的值。如果每个索引Tensor的深度与 `input_x` 的rank匹配,则每个索引向量对应于 `input_x` 中的Scalar,并且每次更新都会更新一个Scalar。如果每个索引Tensor的深度小于 `input_x` 的rank,则每个索引向量对应于 `input_x` 中的切片,并且每次更新都会更新一个切片。
|
||||
|
||||
|
|
|
@ -713,7 +713,7 @@ class HyperMap(HyperMap_):
|
|||
Hypermap will apply the set operation to input sequences.
|
||||
|
||||
Apply the operations to every element of the sequence or nested sequence. Different
|
||||
from `Map`, the `HyperMap` supports to apply on nested structure.
|
||||
from `mindspore.ops.Map`, the `HyperMap` supports to apply on nested structure.
|
||||
|
||||
Args:
|
||||
ops (Union[MultitypeFuncGraph, None]): `ops` is the operation to apply. If `ops` is `None`,
|
||||
|
|
|
@ -6405,7 +6405,7 @@ class TensorScatterUpdate(_TensorScatterOp):
|
|||
"""
|
||||
Creates a new tensor by updating the positions in `input_x` indicated by
|
||||
`indices`, with values from `update`. This operation is almost equivalent to using
|
||||
ScatterNd, except that the updates are applied on `input_x` instead of a zero tensor.
|
||||
`mindspore.ops.ScatterNdUpdate` , except that the updates are applied on `input_x` instead of a zero tensor.
|
||||
|
||||
`indices` must have rank at least 2, the last axis is the depth of each index
|
||||
vectors. For each index vector, there must be a corresponding value in `update`. If
|
||||
|
@ -6643,9 +6643,8 @@ class TensorScatterMul(_TensorScatterOp):
|
|||
"""
|
||||
Creates a new tensor by multiplying the values from the positions in `input_x` indicated by
|
||||
`indices`, with values from `updates`. When multiple values are provided for the same
|
||||
index, the result of the update will be to multiply these values respectively. This operation is almost
|
||||
equivalent to using ScatterNdSub, except that the updates are applied on output `Tensor`
|
||||
instead of input `Parameter`.
|
||||
index, the result of the update will be to multiply these values respectively.
|
||||
The updates are applied on output `Tensor` instead of input `Parameter`.
|
||||
|
||||
Refer to :func:`mindspore.ops.tensor_scatter_mul` for more detail.
|
||||
|
||||
|
|
|
@ -6589,7 +6589,7 @@ class ApplyProximalGradientDescent(Primitive):
|
|||
r"""
|
||||
Updates relevant entries according to the FOBOS(Forward Backward Splitting) algorithm.
|
||||
Refer to the paper `Efficient Learning using Forward-Backward Splitting
|
||||
<http://papers.nips.cc//paper/3793-efficient-learning-using-forward-backward-splitting.pdf>`_ for more detail。
|
||||
<http://papers.nips.cc//paper/3793-efficient-learning-using-forward-backward-splitting.pdf>`_ for more detail.
|
||||
|
||||
.. math::
|
||||
\begin{array}{ll} \\
|
||||
|
|
Loading…
Reference in New Issue