!41564 modify format

Merge pull request !41564 from 俞涵/code_docs_r180727
This commit is contained in:
i-robot 2022-09-06 13:02:02 +00:00 committed by Gitee
commit 453c2d09f2
No known key found for this signature in database
GPG Key ID: 173E9B9CA92EEF8F
18 changed files with 18 additions and 18 deletions

View File

@ -19,7 +19,7 @@ mindspore.amp.LossScaleManager
.. py:method:: update_loss_scale(overflow)
根据 `overflow` 状态更新梯度放大系数loss scale)
根据 `overflow` 状态更新梯度放大系数loss scale
**参数:**

View File

@ -7,7 +7,7 @@
建议通过继承这个基类来实现自定义Dataset并重写相应的方法`process``save``load` ,可参考 `ArgoverseDataset` 源码。自定义Dataset的初始化过程如下首先检查在给定的 `data_dir` 中是否已经有处理好的数据,如果是则调用 `load` 方法直接加载它,否则将调用 `process` 方法创建图,并调用 `save` 方法将图保存到 `save_dir`
可以访问所创建dataset中的图并使用例如 `graphs = my_dataset.graphs`也可以迭代dataset对象如 `my_dataset.create_tuple_iterator()` 来获取数据(这时需要实现 `__getitem__` 和 `__len__`)方法,具体请参考以下示例。注意:内部逻辑指定了 `__new__` 阶段会重新初始化 `__init__` ,如果自定义图实现了 `__new__` 方法,该方法将失效。
可以访问所创建dataset中的图并使用例如 `graphs = my_dataset.graphs`也可以迭代dataset对象如 `my_dataset.create_tuple_iterator()` 来获取数据(这时需要实现 `__getitem__` 和 `__len__`方法,具体请参考以下示例。注意:内部逻辑指定了 `__new__` 阶段会重新初始化 `__init__` ,如果自定义图实现了 `__new__` 方法,该方法将失效。
**参数:**

View File

@ -915,7 +915,7 @@ mindspore.Tensor
- **TypeError** - `axis` 是tuple或者list但其元素不是int。
- **TypeError** - `keep_dims` 不是bool。
- **TypeError** - `epsilon` 不是float。
- **ValueError** - `axis` 的元素超出范围 `[-len(input_x.shape, len(input_x.shape)]` ,其中 `input_x` 指当前Tensor。
- **ValueError** - `axis` 的元素超出范围 `(-len(input_x.shape), len(input_x.shape))` ,其中 `input_x` 指当前Tensor。
- **ValueError** - `axis` 的维度rank大于当前Tensor的维度rank。
.. py:method:: masked_fill(mask, value)

View File

@ -12,7 +12,7 @@ mindspore.export
**参数:**
- **net** (Cell) MindSpore网络结构。
- **inputs** (Union[Tensor, Dasaset, List, Tuple, Number, Bool) 网络的输入,如果网络有多个输入,需要一同传入。当传入的类型为 `Dataset`将会把数据预处理行为同步保存起来。需要手动调整batch的大小当前仅支持获取 `Dataset``image` 列。
- **inputs** (Union[Tensor, Dasaset, List, Tuple, Number, Bool]) 网络的输入,如果网络有多个输入,需要一同传入。当传入的类型为 `Dataset`将会把数据预处理行为同步保存起来。需要手动调整batch的大小当前仅支持获取 `Dataset``image` 列。
- **file_name** (str) 导出模型的文件名称。
- **file_format** (str) MindSpore目前支持导出"AIR""ONNX"和"MINDIR"格式的模型。

View File

@ -11,7 +11,7 @@ mindspore.nn.SSIM
l(x,y)&=\frac{2\mu_x\mu_y+C_1}{\mu_x^2+\mu_y^2+C_1}, C_1=(K_1L)^2.\\
c(x,y)&=\frac{2\sigma_x\sigma_y+C_2}{\sigma_x^2+\sigma_y^2+C_2}, C_2=(K_2L)^2.\\
s(x,y)&=\frac{\sigma_{xy}+C_3}{\sigma_x\sigma_y+C_3}, C_3=C_2/2.\\
SSIM(x,y)&=l*c*s\\&=\frac{(2\mu_x\mu_y+C_1)(2\sigma_{xy}+C_2}{(\mu_x^2+\mu_y^2+C_1)(\sigma_x^2+\sigma_y^2+C_2)}.
SSIM(x,y)&=l*c*s\\&=\frac{(2\mu_x\mu_y+C_1)(2\sigma_{xy}+C_2)}{(\mu_x^2+\mu_y^2+C_1)(\sigma_x^2+\sigma_y^2+C_2)}.
**参数:**

View File

@ -4,7 +4,7 @@ mindspore.nn.probability.bijector.Invert
.. py:class:: mindspore.nn.probability.bijector.Invert(bijector, name='')
逆映射BijectorInvert Bijector
计算输入Bijector的逆映射。如果正向映射下面的 `bijector` 输入)对应的映射函数为 :math:`Y = g(X)` 那么对应的逆映射Bijector的映射函数为 :math:`Y = h(X) = g^{-1}(X)`
计算输入Bijector的逆映射。如果正向映射下面的 `bijector` 输入对应的映射函数为 :math:`Y = g(X)` 那么对应的逆映射Bijector的映射函数为 :math:`Y = h(X) = g^{-1}(X)`
**参数:**

View File

@ -9,7 +9,7 @@ mindspore.nn.probability.distribution.Poisson
.. math::
P(X = k) = \lambda^k \exp(-\lambda) / k!, k = 1, 2, ...
其中 :math:`\lambda` 为率参数rate)。
其中 :math:`\lambda` 为率参数(rate)。
**参数:**

View File

@ -20,7 +20,7 @@ mindspore.ops.BatchNorm
- **is_training** (bool) - 如果 `is_training` 为True则在训练期间计算 `mean``variance`。如果 `is_training` 为False则在推理期间从checkpoint加载。默认值False。
- **epsilon** (float) - 添加到分母上的值以确保数值稳定性。默认值1e-5。
- **momentum** (float) - 动态均值和动态方差所使用的动量。(例如 :math:`new\_running\_mean = (1 - momentum) * running\_mean + momentum * current\_mean`)。动量值必须为[0, 1]。默认值0.1。
- **momentum** (float) - 动态均值和动态方差所使用的动量。(例如 :math:`new\_running\_mean = (1 - momentum) * running\_mean + momentum * current\_mean`。动量值必须为[0, 1]。默认值0.1。
- **data_format** (str) - 输入数据格式,可选值有:'NHWC'或'NCHW'。默认值:'NCHW'。
**输入:**

View File

@ -11,7 +11,7 @@ mindspore.ops.Custom
这是一个实验性接口,后续可能删除或修改。
.. note::
不同自定义算子的函数类型func_type)支持的平台类型不同。每种类型支持的平台如下:
不同自定义算子的函数类型func_type支持的平台类型不同。每种类型支持的平台如下:
- "hybrid": ["Ascend", "GPU", "CPU"].
- "akg": ["Ascend", "GPU", "CPU"].

View File

@ -14,7 +14,7 @@ mindspore.ops.LayerNorm
**参数:**
- **begin_norm_axis** (int) - 指定 `input_x` 需进行层归一化的起始维度,其值必须在[-1, rank(input)范围内。默认值1。
- **begin_norm_axis** (int) - 指定 `input_x` 需进行层归一化的起始维度,其值必须在[-1, rank(input))范围内。默认值1。
- **begin_params_axis** (int) - 指定输入参数(`gamma`, `beta`) 需进行层归一化的开始轴,其值必须在[-1, rank(input))范围内。默认值1。
- **epsilon** (float) - 添加到分母中的值以确保数据稳定性。默认值1e-7。

View File

@ -23,7 +23,7 @@ mindspore.ops.MirrorPad
- 如果设置 `mode` 为"REFLECT",将使用对称轴对称复制的方式来进行填充。
如果 `input_x` 为[[1,2,3][4,5,6][7,8,9]] `paddings` 为[[1,1], [2,2]],则输出为[[6,5,4,5,6,5,4][3,2,1,2,3,2,1][6,5,4,5,6,5,4][9,8,7,8,9,8,7][6,5,4,5,6,5,4]]。
更直观的理解请参见下面的样例。
- 如果 `mode` 为"SYMMETRIC",则填充方法类似于"REFLECT"。它也会根据对称轴复制,但是也包括对称轴。如果 `input_x` 为[[1,2,3],[4,5,6],[7,8,9]]] `paddings` 为[[1,1], [2,2]],则输出为[[2,1,1,2,3,3,2][2,1,1,2,3,3,2][5,4,4,5,6,6,5][8,7,7,8,9,9,8][8,7,7,8,9,9,8]]。
- 如果 `mode` 为"SYMMETRIC",则填充方法类似于"REFLECT"。它也会根据对称轴复制,但是也包括对称轴。如果 `input_x` 为[[1,2,3],[4,5,6],[7,8,9]] `paddings` 为[[1,1], [2,2]],则输出为[[2,1,1,2,3,3,2][2,1,1,2,3,3,2][5,4,4,5,6,6,5][8,7,7,8,9,9,8][8,7,7,8,9,9,8]]。
更直观的理解请参见下面的样例。
**异常:**

View File

@ -10,7 +10,7 @@ mindspore.ops.ReverseV2
**参数:**
- **axis** (Union[tuple(int), list(int)) - 指定反转的轴。
- **axis** (Union[tuple(int), list(int)]) - 指定反转的轴。
**输入:**

View File

@ -23,7 +23,7 @@ mindspore.ops.SpaceToDepth
**输出:**
4维Tensor数据类型与 `x` 相同shape :math:`(N,(C_{in} * \text{block_size} * 2), H_{in} / \text{block_size}, W_{in} / \text{block_size}` 。
4维Tensor数据类型与 `x` 相同shape :math:`(N,(C_{in} * \text{block_size} * 2), H_{in} / \text{block_size}, W_{in} / \text{block_size})` 。
**异常:**

View File

@ -9,7 +9,7 @@
给定一个 `input_x[m1, m2, ...、mn]``begin``end``strides` 是长度为n的向量。
在每个掩码字段中(`begin_mask``end_mask``ellipsis_mask``new_axis_mask``shrink_axis_mask`)第i位将对应于第i个m。
在每个掩码字段中(`begin_mask``end_mask``ellipsis_mask``new_axis_mask``shrink_axis_mask`第i位将对应于第i个m。
对每个特定的mask内部先将各mask转化为二进制表示 然后倒序排布后进行计算。比如说对于一个5*6*7的Tensormask设置为3 3转化为二进制表示为ob011 倒序后为ob110

View File

@ -29,5 +29,5 @@ mindspore.ops.norm
- **TypeError** - `axis` 是tuple或者list但其元素不是int。
- **TypeError** - `keep_dims` 不是bool。
- **TypeError** - `epsilon` 不是float。
- **ValueError** - `axis` 的元素超出范围 `[-len(input_x.shape, len(input_x.shape)]` ,其中 `input_x` 指当前Tensor 。
- **ValueError** - `axis` 的元素超出范围 `(-len(input_x.shape), len(input_x.shape))` ,其中 `input_x` 指当前Tensor 。
- **ValueError** - `axis` 的维度rank大于当前Tensor的维度rank。

View File

@ -9,7 +9,7 @@
两个输入中选定的维度必须相互匹配。
axes = 0为外积。axes = 1为普通矩阵乘法输入是2维的。axes = 1与axes = ((1,),(0,)相同,其中 `a``b` 都是2维的。axes = 2与axes = ((1,2),(0,1))相同,其中 `a``b` 都是3维的。
axes = 0为外积。axes = 1为普通矩阵乘法输入是2维的。axes = 1与axes = ((1,),(0,))相同,其中 `a``b` 都是2维的。axes = 2与axes = ((1,2),(0,1))相同,其中 `a``b` 都是3维的。
**参数:**

View File

@ -4,7 +4,7 @@
第一个线性层的权重将在输入维度上被分片,第二个线性层在输出维度上进行切分。总体过程如下
.. math::
Dropout((xW_1+b_1)W_2 + b_2))
Dropout((xW_1+b_1)W_2 + b_2)
其中 :math:`W_1, W_2, b_1`:math:`b_2` 为可训练参数。

View File

@ -26,7 +26,7 @@
**输入:**
- **hidden_states** (Tensor) - Tensor。如果use_past为False或者is_first_iteration为Trueshape为[batch_size, seq_length, hidden_size]或者[batch_size * seq_length, hidden_size]。否则shape应为[batch_size, 1, hidden_size]。
- **attention_mask** (Tensor) - Tensor表示shape为[[batch_size, seq_length, seq_length]的注意力掩码。
- **attention_mask** (Tensor) - Tensor表示shape为[batch_size, seq_length, seq_length]的注意力掩码。
- **init_reset** (Tensor) - shape为[1]的bool tensor用于清除增量预测中使用的past key参数和past value参数。仅当use_past为True时有效。默认值为True。
- **batch_valid_length** (Tensor) - shape为[batch_size]的Int32 tensor表示过去所计算的索引。当use_past为True时它用于增量预测。默认值为None。