modify format
This commit is contained in:
parent
97fe8b6dd5
commit
797cf1ef1b
|
@ -168,7 +168,7 @@ Federated-Server
|
|||
|
||||
**异常:**
|
||||
|
||||
**ValueError** - 如果输入key不是联邦学习模式context中的属性。
|
||||
- **ValueError** - 如果输入key不是联邦学习模式context中的属性。
|
||||
|
||||
|
||||
.. py:function:: mindspore.get_fl_context(attr_key)
|
||||
|
@ -186,5 +186,5 @@ Federated-Server
|
|||
|
||||
**异常:**
|
||||
|
||||
**ValueError** - 如果输入key不是联邦学习模式context中的属性。
|
||||
- **ValueError** - 如果输入key不是联邦学习模式context中的属性。
|
||||
|
||||
|
|
|
@ -1194,7 +1194,7 @@ mindspore.Tensor
|
|||
|
||||
根据指定的更新值和输入索引,通过最小值运算,将结果赋值到输出Tensor中。
|
||||
|
||||
索引的最后一个轴是每个索引向量的深度。对于每个索引向量, `updates` 中必须有相应的值。 `updates` 的shape应该等于`input_x[indices]`的shape。有关更多详细信息,请参见下方样例。
|
||||
索引的最后一个轴是每个索引向量的深度。对于每个索引向量, `updates` 中必须有相应的值。 `updates` 的shape应该等于 `input_x[indices]` 的shape。有关更多详细信息,请参见下方样例。
|
||||
|
||||
.. note::
|
||||
如果 `indices` 的某些值超出范围,则相应的 `updates` 不会更新到 `input_x` ,而不是抛出索引错误。
|
||||
|
|
|
@ -1,12 +1,12 @@
|
|||
mindspore.nn.AdaptiveMaxPool2d
|
||||
=================================
|
||||
|
||||
.. py:class:: mindspore.nn.AdaptiveMaxPool2d(output_size, return_indices)
|
||||
.. py:class:: mindspore.nn.AdaptiveMaxPool2d(output_size, return_indices=False)
|
||||
|
||||
对输入的多维数据进行二维的自适应最大池化运算。
|
||||
|
||||
|
||||
通过output_size指定输出的高度 :math:`H_{out}` 和宽度 :math:`W_{out}`
|
||||
|
||||
|
||||
一般,输入shape为 :math:`(N_{in}, C_{in}, H_{in}, W_{in})` 的Tensor,输出 :math:`(N_{in}, C_{in}, H_{out}, W_{out})` 维上的区域最大值。运算如下:
|
||||
|
||||
.. math::
|
||||
|
|
|
@ -1,7 +1,7 @@
|
|||
mindspore.ops.DynamicGRUV2
|
||||
==========================
|
||||
|
||||
.. py:class:: mindspore.ops.DynamicGRUV2(direction="UNIDIRECTIONAL", cell_depth=1, keep_prob=1.0, cell_clip=-1.0, num_proj=0, time_major=True, activation='tahn', gate_order='rzh', reset_after=True, is_training=True)
|
||||
.. py:class:: mindspore.ops.DynamicGRUV2(direction="UNIDIRECTIONAL", cell_depth=1, keep_prob=1.0, cell_clip=-1.0, num_proj=0, time_major=True, activation='tanh', gate_order='rzh', reset_after=True, is_training=True)
|
||||
|
||||
为输入序列应用一个单层GRU(gated recurrent unit)。
|
||||
|
||||
|
|
|
@ -31,7 +31,6 @@ mindspore.ops.KLDivLoss
|
|||
- 目前GPU平台不支持设置 `reduction` 为 "batchmean"。
|
||||
- 仅当 `reduction` 设置为"batchmean"时输出才符合该数学公式。
|
||||
|
||||
|
||||
**参数:**
|
||||
|
||||
- **reduction** (str) - 指定输出结果的计算方式。可选值为:"none"、"mean"、"batchmean"或"sum"。 默认值: "mean"。
|
||||
|
|
|
@ -14,7 +14,7 @@
|
|||
\end{cases}
|
||||
|
||||
.. note::
|
||||
`x` 和`y` 的shape应该相同,或者可以广播。如果 `y` 是NaN或为无限的,并且 `x` 是0,结果将是NaN。
|
||||
`x` 和 `y` 的shape应该相同,或者可以广播。如果 `y` 是NaN或为无限的,并且 `x` 是0,结果将是NaN。
|
||||
|
||||
**输入:**
|
||||
|
||||
|
|
|
@ -3,7 +3,7 @@
|
|||
|
||||
.. py:class:: mindspore.ops.Xlogy
|
||||
|
||||
计算第一个输入Tensor乘以第二个输入Tensor的对数。当`x`为零时,则返回零。
|
||||
计算第一个输入Tensor乘以第二个输入Tensor的对数。当 `x` 为零时,则返回零。
|
||||
|
||||
.. math::
|
||||
out_i = x_{i}\ln{y_{i}}
|
||||
|
|
|
@ -4,9 +4,9 @@ mindspore.ops.adaptive_max_pool2d
|
|||
.. py:function:: mindspore.ops.adaptive_max_pool2d(input_x, output_size, return_indices)
|
||||
|
||||
对输入的多维数据进行二维的自适应最大池化运算。
|
||||
|
||||
|
||||
通过output_size指定输出的高度 :math:`H_{out}` 和宽度 :math:`W_{out}`
|
||||
|
||||
|
||||
一般,输入shape为 :math:`(N_{in}, C_{in}, H_{in}, W_{in})` 的Tensor,输出 :math:`(N_{in}, C_{in}, H_{out}, W_{out})` 维上的区域最大值。运算如下:
|
||||
|
||||
.. math::
|
||||
|
|
|
@ -1,11 +1,11 @@
|
|||
mindspore.ops.tensor_scatter_min
|
||||
===============================
|
||||
================================
|
||||
|
||||
.. py:function:: mindspore.ops.tensor_scatter_min(input_x, indices, updates)
|
||||
|
||||
根据指定的更新值和输入索引,通过最小值运算,将结果赋值到输出Tensor中。
|
||||
|
||||
索引的最后一个轴是每个索引向量的深度。对于每个索引向量, `updates` 中必须有相应的值。 `updates` 的shape应该等于`input_x[indices]`的shape。有关更多详细信息,请参见下方样例。
|
||||
索引的最后一个轴是每个索引向量的深度。对于每个索引向量, `updates` 中必须有相应的值。 `updates` 的shape应该等于 `input_x[indices]` 的shape。有关更多详细信息,请参见下方样例。
|
||||
|
||||
.. note::
|
||||
如果 `indices` 的某些值超出范围,则相应的 `updates` 不会更新为 `input_x` ,而不是抛出索引错误。
|
||||
|
|
Loading…
Reference in New Issue