!32204 modify page display
Merge pull request !32204 from 俞涵/code_docs_329
This commit is contained in:
commit
693af7f260
|
@ -11,7 +11,7 @@ mindspore.dataset.transforms.c_transforms.Unique
|
|||
- 索引Tensor包含输入Tensor的每个元素在运算结果中的索引。
|
||||
- 计数Tensor包含运算结果Tensor的每个元素的计数。
|
||||
|
||||
.. note:: 需要在 :method:`batch` 操作之后调用该运算。
|
||||
.. note:: 需要在 `batch` 操作之后调用该运算。
|
||||
|
||||
**异常:**
|
||||
|
||||
|
|
|
@ -283,7 +283,7 @@ API示例所需模块的导入代码如下:
|
|||
|
||||
数据异构加速可以自动将数据处理的部分运算分配到不同的异构硬件(GPU或Ascend)上,以提高数据处理的速度。
|
||||
|
||||
**参数:**
|
||||
**参数:**
|
||||
|
||||
- **offload** (bool) - 是否开启数据异构加速。
|
||||
|
||||
|
|
|
@ -5,7 +5,7 @@ mindspore.nn.BatchNorm3d
|
|||
|
||||
对输入的五维数据进行批归一化(Batch Normalization Layer)。
|
||||
|
||||
在五维输入(带有附加通道维度的mini-batch 三维输入)上应用批归一化,避免内部协变量偏移。 归一化在卷积网络中得到了广泛的应用。
|
||||
在五维输入(带有附加通道维度的mini-batch 三维输入)上应用批归一化,避免内部协变量偏移。 归一化在卷积网络中得到了广泛的应用。
|
||||
|
||||
.. math::
|
||||
y = \frac{x - \mathrm{E}[x]}{\sqrt{\mathrm{Var}[x] + \epsilon}} * \gamma + \beta
|
||||
|
|
Loading…
Reference in New Issue