forked from mindspore-Ecosystem/mindspore
!41564 modify format
Merge pull request !41564 from 俞涵/code_docs_r180727
This commit is contained in:
commit
453c2d09f2
|
@ -19,7 +19,7 @@ mindspore.amp.LossScaleManager
|
|||
|
||||
.. py:method:: update_loss_scale(overflow)
|
||||
|
||||
根据 `overflow` 状态更新梯度放大系数(loss scale)。
|
||||
根据 `overflow` 状态更新梯度放大系数(loss scale)。
|
||||
|
||||
**参数:**
|
||||
|
||||
|
|
|
@ -7,7 +7,7 @@
|
|||
|
||||
建议通过继承这个基类来实现自定义Dataset,并重写相应的方法,如 `process` 、 `save` 和 `load` ,可参考 `ArgoverseDataset` 源码。自定义Dataset的初始化过程如下,首先检查在给定的 `data_dir` 中是否已经有处理好的数据,如果是则调用 `load` 方法直接加载它,否则将调用 `process` 方法创建图,并调用 `save` 方法将图保存到 `save_dir`。
|
||||
|
||||
可以访问所创建dataset中的图并使用,例如 `graphs = my_dataset.graphs`,也可以迭代dataset对象如 `my_dataset.create_tuple_iterator()` 来获取数据(这时需要实现 `__getitem__` 和 `__len__`)方法,具体请参考以下示例。注意:内部逻辑指定了 `__new__` 阶段会重新初始化 `__init__` ,如果自定义图实现了 `__new__` 方法,该方法将失效。
|
||||
可以访问所创建dataset中的图并使用,例如 `graphs = my_dataset.graphs`,也可以迭代dataset对象如 `my_dataset.create_tuple_iterator()` 来获取数据(这时需要实现 `__getitem__` 和 `__len__`)方法,具体请参考以下示例。注意:内部逻辑指定了 `__new__` 阶段会重新初始化 `__init__` ,如果自定义图实现了 `__new__` 方法,该方法将失效。
|
||||
|
||||
**参数:**
|
||||
|
||||
|
|
|
@ -915,7 +915,7 @@ mindspore.Tensor
|
|||
- **TypeError** - `axis` 是tuple或者list但其元素不是int。
|
||||
- **TypeError** - `keep_dims` 不是bool。
|
||||
- **TypeError** - `epsilon` 不是float。
|
||||
- **ValueError** - `axis` 的元素超出范围 `[-len(input_x.shape, len(input_x.shape)]` ,其中 `input_x` 指当前Tensor。
|
||||
- **ValueError** - `axis` 的元素超出范围 `(-len(input_x.shape), len(input_x.shape))` ,其中 `input_x` 指当前Tensor。
|
||||
- **ValueError** - `axis` 的维度rank大于当前Tensor的维度rank。
|
||||
|
||||
.. py:method:: masked_fill(mask, value)
|
||||
|
|
|
@ -12,7 +12,7 @@ mindspore.export
|
|||
**参数:**
|
||||
|
||||
- **net** (Cell) – MindSpore网络结构。
|
||||
- **inputs** (Union[Tensor, Dasaset, List, Tuple, Number, Bool) – 网络的输入,如果网络有多个输入,需要一同传入。当传入的类型为 `Dataset` 时,将会把数据预处理行为同步保存起来。需要手动调整batch的大小,当前仅支持获取 `Dataset` 的 `image` 列。
|
||||
- **inputs** (Union[Tensor, Dasaset, List, Tuple, Number, Bool]) – 网络的输入,如果网络有多个输入,需要一同传入。当传入的类型为 `Dataset` 时,将会把数据预处理行为同步保存起来。需要手动调整batch的大小,当前仅支持获取 `Dataset` 的 `image` 列。
|
||||
- **file_name** (str) – 导出模型的文件名称。
|
||||
- **file_format** (str) – MindSpore目前支持导出"AIR","ONNX"和"MINDIR"格式的模型。
|
||||
|
||||
|
|
|
@ -11,7 +11,7 @@ mindspore.nn.SSIM
|
|||
l(x,y)&=\frac{2\mu_x\mu_y+C_1}{\mu_x^2+\mu_y^2+C_1}, C_1=(K_1L)^2.\\
|
||||
c(x,y)&=\frac{2\sigma_x\sigma_y+C_2}{\sigma_x^2+\sigma_y^2+C_2}, C_2=(K_2L)^2.\\
|
||||
s(x,y)&=\frac{\sigma_{xy}+C_3}{\sigma_x\sigma_y+C_3}, C_3=C_2/2.\\
|
||||
SSIM(x,y)&=l*c*s\\&=\frac{(2\mu_x\mu_y+C_1)(2\sigma_{xy}+C_2}{(\mu_x^2+\mu_y^2+C_1)(\sigma_x^2+\sigma_y^2+C_2)}.
|
||||
SSIM(x,y)&=l*c*s\\&=\frac{(2\mu_x\mu_y+C_1)(2\sigma_{xy}+C_2)}{(\mu_x^2+\mu_y^2+C_1)(\sigma_x^2+\sigma_y^2+C_2)}.
|
||||
|
||||
**参数:**
|
||||
|
||||
|
|
|
@ -4,7 +4,7 @@ mindspore.nn.probability.bijector.Invert
|
|||
.. py:class:: mindspore.nn.probability.bijector.Invert(bijector, name='')
|
||||
|
||||
逆映射Bijector(Invert Bijector)。
|
||||
计算输入Bijector的逆映射。如果正向映射(下面的 `bijector` 输入)对应的映射函数为 :math:`Y = g(X)` ,那么对应的逆映射Bijector的映射函数为 :math:`Y = h(X) = g^{-1}(X)` 。
|
||||
计算输入Bijector的逆映射。如果正向映射(下面的 `bijector` 输入)对应的映射函数为 :math:`Y = g(X)` ,那么对应的逆映射Bijector的映射函数为 :math:`Y = h(X) = g^{-1}(X)` 。
|
||||
|
||||
**参数:**
|
||||
|
||||
|
|
|
@ -9,7 +9,7 @@ mindspore.nn.probability.distribution.Poisson
|
|||
.. math::
|
||||
P(X = k) = \lambda^k \exp(-\lambda) / k!, k = 1, 2, ...
|
||||
|
||||
其中 :math:`\lambda` 为率参数(rate)。
|
||||
其中 :math:`\lambda` 为率参数(rate)。
|
||||
|
||||
**参数:**
|
||||
|
||||
|
|
|
@ -20,7 +20,7 @@ mindspore.ops.BatchNorm
|
|||
|
||||
- **is_training** (bool) - 如果 `is_training` 为True,则在训练期间计算 `mean` 和 `variance`。如果 `is_training` 为False,则在推理期间从checkpoint加载。默认值:False。
|
||||
- **epsilon** (float) - 添加到分母上的值,以确保数值稳定性。默认值:1e-5。
|
||||
- **momentum** (float) - 动态均值和动态方差所使用的动量。(例如 :math:`new\_running\_mean = (1 - momentum) * running\_mean + momentum * current\_mean`)。动量值必须为[0, 1]。默认值:0.1。
|
||||
- **momentum** (float) - 动态均值和动态方差所使用的动量。(例如 :math:`new\_running\_mean = (1 - momentum) * running\_mean + momentum * current\_mean`)。动量值必须为[0, 1]。默认值:0.1。
|
||||
- **data_format** (str) - 输入数据格式,可选值有:'NHWC'或'NCHW'。默认值:'NCHW'。
|
||||
|
||||
**输入:**
|
||||
|
|
|
@ -11,7 +11,7 @@ mindspore.ops.Custom
|
|||
这是一个实验性接口,后续可能删除或修改。
|
||||
|
||||
.. note::
|
||||
不同自定义算子的函数类型(func_type)支持的平台类型不同。每种类型支持的平台如下:
|
||||
不同自定义算子的函数类型(func_type)支持的平台类型不同。每种类型支持的平台如下:
|
||||
|
||||
- "hybrid": ["Ascend", "GPU", "CPU"].
|
||||
- "akg": ["Ascend", "GPU", "CPU"].
|
||||
|
|
|
@ -14,7 +14,7 @@ mindspore.ops.LayerNorm
|
|||
|
||||
**参数:**
|
||||
|
||||
- **begin_norm_axis** (int) - 指定 `input_x` 需进行层归一化的起始维度,其值必须在[-1, rank(input)范围内。默认值:1。
|
||||
- **begin_norm_axis** (int) - 指定 `input_x` 需进行层归一化的起始维度,其值必须在[-1, rank(input))范围内。默认值:1。
|
||||
- **begin_params_axis** (int) - 指定输入参数(`gamma`, `beta`) 需进行层归一化的开始轴,其值必须在[-1, rank(input))范围内。默认值:1。
|
||||
- **epsilon** (float) - 添加到分母中的值,以确保数据稳定性。默认值:1e-7。
|
||||
|
||||
|
|
|
@ -23,7 +23,7 @@ mindspore.ops.MirrorPad
|
|||
- 如果设置 `mode` 为"REFLECT",将使用对称轴对称复制的方式来进行填充。
|
||||
如果 `input_x` 为[[1,2,3],[4,5,6],[7,8,9]], `paddings` 为[[1,1], [2,2]],则输出为[[6,5,4,5,6,5,4],[3,2,1,2,3,2,1],[6,5,4,5,6,5,4],[9,8,7,8,9,8,7],[6,5,4,5,6,5,4]]。
|
||||
更直观的理解请参见下面的样例。
|
||||
- 如果 `mode` 为"SYMMETRIC",则填充方法类似于"REFLECT"。它也会根据对称轴复制,但是也包括对称轴。如果 `input_x` 为[[1,2,3],[4,5,6],[7,8,9]]], `paddings` 为[[1,1], [2,2]],则输出为[[2,1,1,2,3,3,2],[2,1,1,2,3,3,2],[5,4,4,5,6,6,5],[8,7,7,8,9,9,8],[8,7,7,8,9,9,8]]。
|
||||
- 如果 `mode` 为"SYMMETRIC",则填充方法类似于"REFLECT"。它也会根据对称轴复制,但是也包括对称轴。如果 `input_x` 为[[1,2,3],[4,5,6],[7,8,9]], `paddings` 为[[1,1], [2,2]],则输出为[[2,1,1,2,3,3,2],[2,1,1,2,3,3,2],[5,4,4,5,6,6,5],[8,7,7,8,9,9,8],[8,7,7,8,9,9,8]]。
|
||||
更直观的理解请参见下面的样例。
|
||||
|
||||
**异常:**
|
||||
|
|
|
@ -10,7 +10,7 @@ mindspore.ops.ReverseV2
|
|||
|
||||
**参数:**
|
||||
|
||||
- **axis** (Union[tuple(int), list(int)) - 指定反转的轴。
|
||||
- **axis** (Union[tuple(int), list(int)]) - 指定反转的轴。
|
||||
|
||||
**输入:**
|
||||
|
||||
|
|
|
@ -23,7 +23,7 @@ mindspore.ops.SpaceToDepth
|
|||
|
||||
**输出:**
|
||||
|
||||
4维Tensor,数据类型与 `x` 相同,shape: :math:`(N,(C_{in} * \text{block_size} * 2), H_{in} / \text{block_size}, W_{in} / \text{block_size}` 。
|
||||
4维Tensor,数据类型与 `x` 相同,shape: :math:`(N,(C_{in} * \text{block_size} * 2), H_{in} / \text{block_size}, W_{in} / \text{block_size})` 。
|
||||
|
||||
**异常:**
|
||||
|
||||
|
|
|
@ -9,7 +9,7 @@
|
|||
|
||||
给定一个 `input_x[m1, m2, ...、mn]` 。 `begin` 、 `end` 和 `strides` 是长度为n的向量。
|
||||
|
||||
在每个掩码字段中(`begin_mask`、`end_mask`、`ellipsis_mask`、`new_axis_mask`、`shrink_axis_mask`),第i位将对应于第i个m。
|
||||
在每个掩码字段中(`begin_mask`、`end_mask`、`ellipsis_mask`、`new_axis_mask`、`shrink_axis_mask`),第i位将对应于第i个m。
|
||||
|
||||
对每个特定的mask,内部先将各mask转化为二进制表示, 然后倒序排布后进行计算。比如说对于一个5*6*7的Tensor,mask设置为3, 3转化为二进制表示为ob011, 倒序后为ob110,
|
||||
|
||||
|
|
|
@ -29,5 +29,5 @@ mindspore.ops.norm
|
|||
- **TypeError** - `axis` 是tuple或者list但其元素不是int。
|
||||
- **TypeError** - `keep_dims` 不是bool。
|
||||
- **TypeError** - `epsilon` 不是float。
|
||||
- **ValueError** - `axis` 的元素超出范围 `[-len(input_x.shape, len(input_x.shape)]` ,其中 `input_x` 指当前Tensor 。
|
||||
- **ValueError** - `axis` 的元素超出范围 `(-len(input_x.shape), len(input_x.shape))` ,其中 `input_x` 指当前Tensor 。
|
||||
- **ValueError** - `axis` 的维度rank大于当前Tensor的维度rank。
|
||||
|
|
|
@ -9,7 +9,7 @@
|
|||
|
||||
两个输入中选定的维度必须相互匹配。
|
||||
|
||||
axes = 0为外积。axes = 1为普通矩阵乘法(输入是2维的)。axes = 1与axes = ((1,),(0,)相同,其中 `a` 和 `b` 都是2维的。axes = 2与axes = ((1,2),(0,1))相同,其中 `a` 和 `b` 都是3维的。
|
||||
axes = 0为外积。axes = 1为普通矩阵乘法(输入是2维的)。axes = 1与axes = ((1,),(0,))相同,其中 `a` 和 `b` 都是2维的。axes = 2与axes = ((1,2),(0,1))相同,其中 `a` 和 `b` 都是3维的。
|
||||
|
||||
**参数:**
|
||||
|
||||
|
|
|
@ -4,7 +4,7 @@
|
|||
第一个线性层的权重将在输入维度上被分片,第二个线性层在输出维度上进行切分。总体过程如下
|
||||
|
||||
.. math::
|
||||
Dropout((xW_1+b_1)W_2 + b_2))
|
||||
Dropout((xW_1+b_1)W_2 + b_2)
|
||||
|
||||
其中 :math:`W_1, W_2, b_1` 和 :math:`b_2` 为可训练参数。
|
||||
|
||||
|
|
|
@ -26,7 +26,7 @@
|
|||
**输入:**
|
||||
|
||||
- **hidden_states** (Tensor) - Tensor。如果use_past为False或者is_first_iteration为True,shape为[batch_size, seq_length, hidden_size]或者[batch_size * seq_length, hidden_size]。否则,shape应为[batch_size, 1, hidden_size]。
|
||||
- **attention_mask** (Tensor) - Tensor,表示shape为[[batch_size, seq_length, seq_length]的注意力掩码。
|
||||
- **attention_mask** (Tensor) - Tensor,表示shape为[batch_size, seq_length, seq_length]的注意力掩码。
|
||||
- **init_reset** (Tensor) - shape为[1]的bool tensor,用于清除增量预测中使用的past key参数和past value参数。仅当use_past为True时有效。默认值为True。
|
||||
- **batch_valid_length** (Tensor) - shape为[batch_size]的Int32 tensor,表示过去所计算的索引。当use_past为True时,它用于增量预测。默认值为None。
|
||||
|
||||
|
|
Loading…
Reference in New Issue