forked from mindspore-Ecosystem/mindspore
repair brackets errors
This commit is contained in:
parent
85b844fc82
commit
a6adb944cb
|
@ -19,7 +19,7 @@ mindspore.amp.LossScaleManager
|
||||||
|
|
||||||
.. py:method:: update_loss_scale(overflow)
|
.. py:method:: update_loss_scale(overflow)
|
||||||
|
|
||||||
根据 `overflow` 状态更新梯度放大系数(loss scale)。
|
根据 `overflow` 状态更新梯度放大系数(loss scale)。
|
||||||
|
|
||||||
参数:
|
参数:
|
||||||
- **overflow** (bool) - 表示训练过程是否溢出。
|
- **overflow** (bool) - 表示训练过程是否溢出。
|
||||||
|
|
|
@ -10,7 +10,7 @@ mindspore.dataset.IWSLT2016Dataset
|
||||||
参数:
|
参数:
|
||||||
- **dataset_dir** (str) - 包含数据集文件的根目录路径。
|
- **dataset_dir** (str) - 包含数据集文件的根目录路径。
|
||||||
- **usage** (str, 可选) - 指定数据集的子集,可取值为'train','valid','test'或'all'。默认值:None,读取全部样本。
|
- **usage** (str, 可选) - 指定数据集的子集,可取值为'train','valid','test'或'all'。默认值:None,读取全部样本。
|
||||||
- **language_pair** (sequence, 可选) - 包含源语言和目标语言的序列,支持的值为('en','fr')、('en','de')、('en','cs')、('en','ar')、('de','en'),('cs','en'),('ar','en'),默认值:('de','en')。
|
- **language_pair** (sequence, 可选) - 包含源语言和目标语言的序列,支持的值为('en','fr')、('en','de')、('en','cs')、('en','ar')、('de','en'),('cs','en'),('ar','en'),默认值:('de','en')。
|
||||||
- **valid_set** (str, 可选) - 标识验证集的字符串,支持的值为'dev2010'、'tst2010'、'tst2011'、'tst'2012,'tst2013'和'tst2014',默认值:'tst2013'。
|
- **valid_set** (str, 可选) - 标识验证集的字符串,支持的值为'dev2010'、'tst2010'、'tst2011'、'tst'2012,'tst2013'和'tst2014',默认值:'tst2013'。
|
||||||
- **test_set** (str, 可选) - 识测试集的字符串,支持的值为'dev2010'、'tst2010'、'tst2011'、'tst'2012、'tst2013'和'tst2014',默认值:'tst2014'。
|
- **test_set** (str, 可选) - 识测试集的字符串,支持的值为'dev2010'、'tst2010'、'tst2011'、'tst'2012、'tst2013'和'tst2014',默认值:'tst2014'。
|
||||||
- **num_samples** (int, 可选) - 指定从数据集中读取的样本数。
|
- **num_samples** (int, 可选) - 指定从数据集中读取的样本数。
|
||||||
|
|
|
@ -10,7 +10,7 @@ mindspore.dataset.IWSLT2017Dataset
|
||||||
参数:
|
参数:
|
||||||
- **dataset_dir** (str) - 包含数据集文件的根目录路径。
|
- **dataset_dir** (str) - 包含数据集文件的根目录路径。
|
||||||
- **usage** (str, 可选) - 指定数据集的子集,可取值为'train','valid','test'或'all'。默认值:None,读取全部样本。
|
- **usage** (str, 可选) - 指定数据集的子集,可取值为'train','valid','test'或'all'。默认值:None,读取全部样本。
|
||||||
- **language_pair** (sequence, 可选) - 包含源语和目标语的语言列表,支持的语言对有('en','nl')、('en','de')、('en','it')、('en','ro')、('nl','en','de')、('nl','it')、('nl','ro')、('de','en')、('de','nl')、('de','it','it','en')、('it','nl')、('it','de')、('it','ro')、('ro','en')、('ro','nl')、('ro','de')、('ro','it'),默认值:('de','en')。
|
- **language_pair** (sequence, 可选) - 包含源语和目标语的语言列表,支持的语言对有('en','nl')、('en','de')、('en','it')、('en','ro')、('nl','en','de')、('nl','it')、('nl','ro')、('de','en')、('de','nl')、('de','it','it','en')、('it','nl')、('it','de')、('it','ro')、('ro','en')、('ro','nl')、('ro','de')、('ro','it'),默认值:('de','en')。
|
||||||
- **num_samples** (int, 可选) - 指定从数据集中读取的样本数。
|
- **num_samples** (int, 可选) - 指定从数据集中读取的样本数。
|
||||||
- **shuffle** (Union[bool, Shuffle], 可选) - 每个epoch中数据混洗的模式,支持传入bool类型与枚举类型进行指定,默认值:mindspore.dataset.Shuffle.GLOBAL。
|
- **shuffle** (Union[bool, Shuffle], 可选) - 每个epoch中数据混洗的模式,支持传入bool类型与枚举类型进行指定,默认值:mindspore.dataset.Shuffle.GLOBAL。
|
||||||
如果 `shuffle` 为False,则不混洗,如果 `shuffle` 为True,等同于将 `shuffle` 设置为mindspore.dataset.Shuffle.GLOBAL。
|
如果 `shuffle` 为False,则不混洗,如果 `shuffle` 为True,等同于将 `shuffle` 设置为mindspore.dataset.Shuffle.GLOBAL。
|
||||||
|
|
|
@ -7,7 +7,7 @@
|
||||||
|
|
||||||
建议通过继承这个基类来实现自定义Dataset,并重写相应的方法,如 `process` 、 `save` 和 `load` ,可参考 `ArgoverseDataset` 源码。自定义Dataset的初始化过程如下,首先检查在给定的 `data_dir` 中是否已经有处理好的数据,如果是则调用 `load` 方法直接加载它,否则将调用 `process` 方法创建图,并调用 `save` 方法将图保存到 `save_dir`。
|
建议通过继承这个基类来实现自定义Dataset,并重写相应的方法,如 `process` 、 `save` 和 `load` ,可参考 `ArgoverseDataset` 源码。自定义Dataset的初始化过程如下,首先检查在给定的 `data_dir` 中是否已经有处理好的数据,如果是则调用 `load` 方法直接加载它,否则将调用 `process` 方法创建图,并调用 `save` 方法将图保存到 `save_dir`。
|
||||||
|
|
||||||
可以访问所创建dataset中的图并使用,例如 `graphs = my_dataset.graphs`,也可以迭代dataset对象如 `my_dataset.create_tuple_iterator()` 来获取数据(这时需要实现 `__getitem__` 和 `__len__`)方法,具体请参考以下示例。注意:内部逻辑指定了 `__new__` 阶段会重新初始化 `__init__` ,如果自定义图实现了 `__new__` 方法,该方法将失效。
|
可以访问所创建dataset中的图并使用,例如 `graphs = my_dataset.graphs`,也可以迭代dataset对象如 `my_dataset.create_tuple_iterator()` 来获取数据(这时需要实现 `__getitem__` 和 `__len__`)方法,具体请参考以下示例。注意:内部逻辑指定了 `__new__` 阶段会重新初始化 `__init__` ,如果自定义图实现了 `__new__` 方法,该方法将失效。
|
||||||
|
|
||||||
参数:
|
参数:
|
||||||
- **data_dir** (str) - 加载数据集的目录,这里包含原始格式的数据,并将在 `process` 方法中被加载。
|
- **data_dir** (str) - 加载数据集的目录,这里包含原始格式的数据,并将在 `process` 方法中被加载。
|
||||||
|
|
|
@ -25,7 +25,7 @@ mindspore.dataset.vision.Pad
|
||||||
.. note:: 当 `padding` 输入长度为2的序列时的行为未来将从使用第一个值填充左/上边界,使用第二个值填充右/下边界,变为使用第一个值填充左/右边界,使用第二个值填充上/下边界。你也可以直接输入长度为4的序列来分别指定左、上、右和下边界的填充长度。
|
.. note:: 当 `padding` 输入长度为2的序列时的行为未来将从使用第一个值填充左/上边界,使用第二个值填充右/下边界,变为使用第一个值填充左/右边界,使用第二个值填充上/下边界。你也可以直接输入长度为4的序列来分别指定左、上、右和下边界的填充长度。
|
||||||
|
|
||||||
异常:
|
异常:
|
||||||
- **TypeError** - 如果 `padding` 不是int或Sequence[int, int], Sequence[int, int, int, int]]类型。
|
- **TypeError** - 如果 `padding` 不是int或Sequence[int, int], Sequence[int, int, int, int]类型。
|
||||||
- **TypeError** - 如果 `fill_value` 不是int或tuple[int]类型。
|
- **TypeError** - 如果 `fill_value` 不是int或tuple[int]类型。
|
||||||
- **TypeError** - 如果 `padding_mode` 不是 :class:`mindspore.dataset.vision.Border` 的类型。
|
- **TypeError** - 如果 `padding_mode` 不是 :class:`mindspore.dataset.vision.Border` 的类型。
|
||||||
- **ValueError** - 如果 `padding` 为负数。
|
- **ValueError** - 如果 `padding` 为负数。
|
||||||
|
|
|
@ -15,7 +15,7 @@ mindspore.Tensor.norm
|
||||||
- **epsilon** (float) - 用于保持数据稳定性的常量。默认值:1e-12。
|
- **epsilon** (float) - 用于保持数据稳定性的常量。默认值:1e-12。
|
||||||
|
|
||||||
返回:
|
返回:
|
||||||
Tensor,其数据类型与当前Tensor相同,其维度信息取决于 `axis` 轴以及参数 `keep_dims` 。例如如果输入的大小为 `(2,3,4)` 轴为 `[0,1]` ,输出的维度为 `(4,)` 。
|
Tensor,其数据类型与当前Tensor相同,其维度信息取决于 `axis` 轴以及参数 `keep_dims` 。例如如果输入的大小为 `(2,3,4)` 轴为 `[0,1]` ,输出的维度为 `(4,)` 。
|
||||||
|
|
||||||
异常:
|
异常:
|
||||||
- **TypeError** - 当前Tensor的数据类型不是float16或者float32。
|
- **TypeError** - 当前Tensor的数据类型不是float16或者float32。
|
||||||
|
@ -24,5 +24,5 @@ mindspore.Tensor.norm
|
||||||
- **TypeError** - `axis` 是tuple或者list但其元素不是int。
|
- **TypeError** - `axis` 是tuple或者list但其元素不是int。
|
||||||
- **TypeError** - `keep_dims` 不是bool。
|
- **TypeError** - `keep_dims` 不是bool。
|
||||||
- **TypeError** - `epsilon` 不是float。
|
- **TypeError** - `epsilon` 不是float。
|
||||||
- **ValueError** - `axis` 的元素超出范围 `[-len(input_x.shape, len(input_x.shape)]` ,其中 `input_x` 指当前Tensor。
|
- **ValueError** - `axis` 的元素超出范围 `(-len(input_x.shape), len(input_x.shape))` ,其中 `input_x` 指当前Tensor。
|
||||||
- **ValueError** - `axis` 的维度rank大于当前Tensor的维度rank。
|
- **ValueError** - `axis` 的维度rank大于当前Tensor的维度rank。
|
|
@ -11,7 +11,7 @@ mindspore.export
|
||||||
|
|
||||||
参数:
|
参数:
|
||||||
- **net** (Cell) - MindSpore网络结构。
|
- **net** (Cell) - MindSpore网络结构。
|
||||||
- **inputs** (Union[Tensor, Dasaset, List, Tuple, Number, Bool) - 网络的输入,如果网络有多个输入,需要一同传入。当传入的类型为 `Dataset` 时,将会把数据预处理行为同步保存起来。需要手动调整batch的大小,当前仅支持获取 `Dataset` 的 `image` 列。
|
- **inputs** (Union[Tensor, Dasaset, List, Tuple, Number, Bool]) - 网络的输入,如果网络有多个输入,需要一同传入。当传入的类型为 `Dataset` 时,将会把数据预处理行为同步保存起来。需要手动调整batch的大小,当前仅支持获取 `Dataset` 的 `image` 列。
|
||||||
- **file_name** (str) - 导出模型的文件名称。
|
- **file_name** (str) - 导出模型的文件名称。
|
||||||
- **file_format** (str) - MindSpore目前支持导出"AIR","ONNX"和"MINDIR"格式的模型。
|
- **file_format** (str) - MindSpore目前支持导出"AIR","ONNX"和"MINDIR"格式的模型。
|
||||||
|
|
||||||
|
|
|
@ -11,7 +11,7 @@ mindspore.nn.SSIM
|
||||||
l(x,y)&=\frac{2\mu_x\mu_y+C_1}{\mu_x^2+\mu_y^2+C_1}, C_1=(K_1L)^2.\\
|
l(x,y)&=\frac{2\mu_x\mu_y+C_1}{\mu_x^2+\mu_y^2+C_1}, C_1=(K_1L)^2.\\
|
||||||
c(x,y)&=\frac{2\sigma_x\sigma_y+C_2}{\sigma_x^2+\sigma_y^2+C_2}, C_2=(K_2L)^2.\\
|
c(x,y)&=\frac{2\sigma_x\sigma_y+C_2}{\sigma_x^2+\sigma_y^2+C_2}, C_2=(K_2L)^2.\\
|
||||||
s(x,y)&=\frac{\sigma_{xy}+C_3}{\sigma_x\sigma_y+C_3}, C_3=C_2/2.\\
|
s(x,y)&=\frac{\sigma_{xy}+C_3}{\sigma_x\sigma_y+C_3}, C_3=C_2/2.\\
|
||||||
SSIM(x,y)&=l*c*s\\&=\frac{(2\mu_x\mu_y+C_1)(2\sigma_{xy}+C_2}{(\mu_x^2+\mu_y^2+C_1)(\sigma_x^2+\sigma_y^2+C_2)}.
|
SSIM(x,y)&=l*c*s\\&=\frac{(2\mu_x\mu_y+C_1)(2\sigma_{xy}+C_2)}{(\mu_x^2+\mu_y^2+C_1)(\sigma_x^2+\sigma_y^2+C_2)}.
|
||||||
|
|
||||||
参数:
|
参数:
|
||||||
- **max_val** (Union[int, float]) - 像素值的动态范围,即最大值和最小值之间的差值。(8bit灰度图像像素为255)。默认值:1.0。
|
- **max_val** (Union[int, float]) - 像素值的动态范围,即最大值和最小值之间的差值。(8bit灰度图像像素为255)。默认值:1.0。
|
||||||
|
|
|
@ -4,7 +4,7 @@ mindspore.nn.probability.bijector.Invert
|
||||||
.. py:class:: mindspore.nn.probability.bijector.Invert(bijector, name='')
|
.. py:class:: mindspore.nn.probability.bijector.Invert(bijector, name='')
|
||||||
|
|
||||||
逆映射Bijector(Invert Bijector)。
|
逆映射Bijector(Invert Bijector)。
|
||||||
计算输入Bijector的逆映射。如果正向映射(下面的 `bijector` 输入)对应的映射函数为 :math:`Y = g(X)` ,那么对应的逆映射Bijector的映射函数为 :math:`Y = h(X) = g^{-1}(X)` 。
|
计算输入Bijector的逆映射。如果正向映射(下面的 `bijector` 输入)对应的映射函数为 :math:`Y = g(X)` ,那么对应的逆映射Bijector的映射函数为 :math:`Y = h(X) = g^{-1}(X)` 。
|
||||||
|
|
||||||
参数:
|
参数:
|
||||||
- **bijector** (Bijector) - 基础Bijector(Base Bijector)。
|
- **bijector** (Bijector) - 基础Bijector(Base Bijector)。
|
||||||
|
|
|
@ -9,7 +9,7 @@ mindspore.nn.probability.distribution.Poisson
|
||||||
.. math::
|
.. math::
|
||||||
P(X = k) = \lambda^k \exp(-\lambda) / k!, k = 1, 2, ...
|
P(X = k) = \lambda^k \exp(-\lambda) / k!, k = 1, 2, ...
|
||||||
|
|
||||||
其中 :math:`\lambda` 为率参数(rate)。
|
其中 :math:`\lambda` 为率参数(rate)。
|
||||||
|
|
||||||
参数:
|
参数:
|
||||||
- **rate** (int, float, list, numpy.ndarray, Tensor) - 泊松分布的率参数。默认值:None。
|
- **rate** (int, float, list, numpy.ndarray, Tensor) - 泊松分布的率参数。默认值:None。
|
||||||
|
|
|
@ -19,7 +19,7 @@ mindspore.ops.BatchNorm
|
||||||
参数:
|
参数:
|
||||||
- **is_training** (bool) - 如果 `is_training` 为True,则在训练期间计算 `mean` 和 `variance`。如果 `is_training` 为False,则在推理期间从checkpoint加载。默认值:False。
|
- **is_training** (bool) - 如果 `is_training` 为True,则在训练期间计算 `mean` 和 `variance`。如果 `is_training` 为False,则在推理期间从checkpoint加载。默认值:False。
|
||||||
- **epsilon** (float) - 添加到分母上的值,以确保数值稳定性。默认值:1e-5。
|
- **epsilon** (float) - 添加到分母上的值,以确保数值稳定性。默认值:1e-5。
|
||||||
- **momentum** (float) - 动态均值和动态方差所使用的动量。(例如 :math:`new\_running\_mean = (1 - momentum) * running\_mean + momentum * current\_mean`)。动量值必须为[0, 1]。默认值:0.1。
|
- **momentum** (float) - 动态均值和动态方差所使用的动量。(例如 :math:`new\_running\_mean = (1 - momentum) * running\_mean + momentum * current\_mean`)。动量值必须为[0, 1]。默认值:0.1。
|
||||||
- **data_format** (str) - 输入数据格式,可选值有:'NHWC'或'NCHW'。默认值:'NCHW'。
|
- **data_format** (str) - 输入数据格式,可选值有:'NHWC'或'NCHW'。默认值:'NCHW'。
|
||||||
|
|
||||||
输入:
|
输入:
|
||||||
|
|
|
@ -11,7 +11,7 @@ mindspore.ops.Custom
|
||||||
这是一个实验性接口,后续可能删除或修改。
|
这是一个实验性接口,后续可能删除或修改。
|
||||||
|
|
||||||
.. note::
|
.. note::
|
||||||
不同自定义算子的函数类型(func_type)支持的平台类型不同。每种类型支持的平台如下:
|
不同自定义算子的函数类型(func_type)支持的平台类型不同。每种类型支持的平台如下:
|
||||||
|
|
||||||
- "hybrid": ["Ascend", "GPU", "CPU"].
|
- "hybrid": ["Ascend", "GPU", "CPU"].
|
||||||
- "akg": ["Ascend", "GPU", "CPU"].
|
- "akg": ["Ascend", "GPU", "CPU"].
|
||||||
|
|
|
@ -13,7 +13,7 @@ mindspore.ops.LayerNorm
|
||||||
其中 :math:`\gamma` 是Scalar, :math:`\beta` 是偏置项, :math:`\epsilon` 是精度值。
|
其中 :math:`\gamma` 是Scalar, :math:`\beta` 是偏置项, :math:`\epsilon` 是精度值。
|
||||||
|
|
||||||
参数:
|
参数:
|
||||||
- **begin_norm_axis** (int) - 指定 `input_x` 需进行层归一化的起始维度,其值必须在[-1, rank(input)范围内。默认值:1。
|
- **begin_norm_axis** (int) - 指定 `input_x` 需进行层归一化的起始维度,其值必须在[-1, rank(input))范围内。默认值:1。
|
||||||
- **begin_params_axis** (int) - 指定输入参数(`gamma`, `beta`) 需进行层归一化的开始轴,其值必须在[-1, rank(input))范围内。默认值:1。
|
- **begin_params_axis** (int) - 指定输入参数(`gamma`, `beta`) 需进行层归一化的开始轴,其值必须在[-1, rank(input))范围内。默认值:1。
|
||||||
- **epsilon** (float) - 添加到分母中的值,以确保数据稳定性。默认值:1e-7。
|
- **epsilon** (float) - 添加到分母中的值,以确保数据稳定性。默认值:1e-7。
|
||||||
|
|
||||||
|
|
|
@ -20,7 +20,7 @@ mindspore.ops.MirrorPad
|
||||||
- 如果设置 `mode` 为"REFLECT",将使用对称轴对称复制的方式来进行填充。
|
- 如果设置 `mode` 为"REFLECT",将使用对称轴对称复制的方式来进行填充。
|
||||||
如果 `input_x` 为[[1,2,3],[4,5,6],[7,8,9]], `paddings` 为[[1,1], [2,2]],则输出为[[6,5,4,5,6,5,4],[3,2,1,2,3,2,1],[6,5,4,5,6,5,4],[9,8,7,8,9,8,7],[6,5,4,5,6,5,4]]。
|
如果 `input_x` 为[[1,2,3],[4,5,6],[7,8,9]], `paddings` 为[[1,1], [2,2]],则输出为[[6,5,4,5,6,5,4],[3,2,1,2,3,2,1],[6,5,4,5,6,5,4],[9,8,7,8,9,8,7],[6,5,4,5,6,5,4]]。
|
||||||
更直观的理解请参见下面的样例。
|
更直观的理解请参见下面的样例。
|
||||||
- 如果 `mode` 为"SYMMETRIC",则填充方法类似于"REFLECT"。它也会根据对称轴复制,但是也包括对称轴。如果 `input_x` 为[[1,2,3],[4,5,6],[7,8,9]]], `paddings` 为[[1,1], [2,2]],则输出为[[2,1,1,2,3,3,2],[2,1,1,2,3,3,2],[5,4,4,5,6,6,5],[8,7,7,8,9,9,8],[8,7,7,8,9,9,8]]。
|
- 如果 `mode` 为"SYMMETRIC",则填充方法类似于"REFLECT"。它也会根据对称轴复制,但是也包括对称轴。如果 `input_x` 为[[1,2,3],[4,5,6],[7,8,9]], `paddings` 为[[1,1], [2,2]],则输出为[[2,1,1,2,3,3,2],[2,1,1,2,3,3,2],[5,4,4,5,6,6,5],[8,7,7,8,9,9,8],[8,7,7,8,9,9,8]]。
|
||||||
更直观的理解请参见下面的样例。
|
更直观的理解请参见下面的样例。
|
||||||
|
|
||||||
异常:
|
异常:
|
||||||
|
|
|
@ -9,7 +9,7 @@ mindspore.ops.ReverseV2
|
||||||
"axis"的取值范围为[-dims, dims - 1],"dims"表示"input_x"的维度长度。
|
"axis"的取值范围为[-dims, dims - 1],"dims"表示"input_x"的维度长度。
|
||||||
|
|
||||||
参数:
|
参数:
|
||||||
- **axis** (Union[tuple(int), list(int)) - 指定反转的轴。
|
- **axis** (Union[tuple(int), list(int)]) - 指定反转的轴。
|
||||||
|
|
||||||
输入:
|
输入:
|
||||||
- **input_x** (Tensor) - 输入需反转的任意维度的Tensor。数据类型为数值型,不包括float64。shape: :math:`(N, *)` ,其中 :math:`*` 表示任意数量的附加维度。
|
- **input_x** (Tensor) - 输入需反转的任意维度的Tensor。数据类型为数值型,不包括float64。shape: :math:`(N, *)` ,其中 :math:`*` 表示任意数量的附加维度。
|
||||||
|
|
|
@ -20,7 +20,7 @@ mindspore.ops.SpaceToDepth
|
||||||
- **x** (Tensor) - 4维Tensor。数据类型为Number。
|
- **x** (Tensor) - 4维Tensor。数据类型为Number。
|
||||||
|
|
||||||
输出:
|
输出:
|
||||||
4维Tensor,数据类型与 `x` 相同,shape: :math:`(N,(C_{in} * \text{block_size} * 2), H_{in} / \text{block_size}, W_{in} / \text{block_size}` 。
|
4维Tensor,数据类型与 `x` 相同,shape: :math:`(N,(C_{in} * \text{block_size} * 2), H_{in} / \text{block_size}, W_{in} / \text{block_size})` 。
|
||||||
|
|
||||||
异常:
|
异常:
|
||||||
- **TypeError** - `block_size` 不是int类型。
|
- **TypeError** - `block_size` 不是int类型。
|
||||||
|
|
|
@ -9,7 +9,7 @@
|
||||||
|
|
||||||
给定一个 `input_x[m1, m2, ...、mn]` 。 `begin` 、 `end` 和 `strides` 是长度为n的向量。
|
给定一个 `input_x[m1, m2, ...、mn]` 。 `begin` 、 `end` 和 `strides` 是长度为n的向量。
|
||||||
|
|
||||||
在每个掩码字段中(`begin_mask`、`end_mask`、`ellipsis_mask`、`new_axis_mask`、`shrink_axis_mask`),第i位将对应于第i个m。
|
在每个掩码字段中(`begin_mask`、`end_mask`、`ellipsis_mask`、`new_axis_mask`、`shrink_axis_mask`),第i位将对应于第i个m。
|
||||||
|
|
||||||
对于每个特定的mask,内部先将其转化为二进制表示, 然后倒序排布后进行计算。比如说对于一个5*6*7的Tensor,mask设置为3, 3转化为二进制表示为ob011, 倒序
|
对于每个特定的mask,内部先将其转化为二进制表示, 然后倒序排布后进行计算。比如说对于一个5*6*7的Tensor,mask设置为3, 3转化为二进制表示为ob011, 倒序
|
||||||
后为ob110, 则该mask只在第0维和第1维产生作用, 下面各自举例说明。
|
后为ob110, 则该mask只在第0维和第1维产生作用, 下面各自举例说明。
|
||||||
|
|
|
@ -26,5 +26,5 @@ mindspore.ops.norm
|
||||||
- **TypeError** - `axis` 是tuple或者list但其元素不是int。
|
- **TypeError** - `axis` 是tuple或者list但其元素不是int。
|
||||||
- **TypeError** - `keep_dims` 不是bool。
|
- **TypeError** - `keep_dims` 不是bool。
|
||||||
- **TypeError** - `epsilon` 不是float。
|
- **TypeError** - `epsilon` 不是float。
|
||||||
- **ValueError** - `axis` 的元素超出范围 `[-len(input_x.shape, len(input_x.shape)]` ,其中 `input_x` 指当前Tensor 。
|
- **ValueError** - `axis` 的元素超出范围 `(-len(input_x.shape), len(input_x.shape))` ,其中 `input_x` 指当前Tensor 。
|
||||||
- **ValueError** - `axis` 的维度rank大于当前Tensor的维度rank。
|
- **ValueError** - `axis` 的维度rank大于当前Tensor的维度rank。
|
||||||
|
|
|
@ -9,7 +9,7 @@ mindspore.ops.sparse_concat
|
||||||
实验特性接口,目前只支持CPU。
|
实验特性接口,目前只支持CPU。
|
||||||
|
|
||||||
参数:
|
参数:
|
||||||
- **sp_input** (Union[list(COOTensor), tuple(COOTensor)) - 输入的需要concat合并的稀疏张量。
|
- **sp_input** (Union[list(COOTensor), tuple(COOTensor)]) - 输入的需要concat合并的稀疏张量。
|
||||||
- **concat_dim** (标量) - 指定需要合并的轴序号, 它的取值必须是在[-rank, rank)之内,
|
- **concat_dim** (标量) - 指定需要合并的轴序号, 它的取值必须是在[-rank, rank)之内,
|
||||||
其中rank为sp_input中COOTensor的shape的维度值。缺省值为0。
|
其中rank为sp_input中COOTensor的shape的维度值。缺省值为0。
|
||||||
|
|
||||||
|
|
|
@ -9,7 +9,7 @@
|
||||||
|
|
||||||
两个输入中选定的维度必须相互匹配。
|
两个输入中选定的维度必须相互匹配。
|
||||||
|
|
||||||
axes = 0为外积。axes = 1为普通矩阵乘法(输入是2维的)。axes = 1与axes = ((1,),(0,)相同,其中 `a` 和 `b` 都是2维的。axes = 2与axes = ((1,2),(0,1))相同,其中 `a` 和 `b` 都是3维的。
|
axes = 0为外积。axes = 1为普通矩阵乘法(输入是2维的)。axes = 1与axes = ((1,),(0,))相同,其中 `a` 和 `b` 都是2维的。axes = 2与axes = ((1,2),(0,1))相同,其中 `a` 和 `b` 都是3维的。
|
||||||
|
|
||||||
参数:
|
参数:
|
||||||
- **x1** (Tensor) - tensor_dot的第一个输入Tensor,其数据类型为float16或float32。
|
- **x1** (Tensor) - tensor_dot的第一个输入Tensor,其数据类型为float16或float32。
|
||||||
|
|
|
@ -4,7 +4,7 @@
|
||||||
第一个线性层的权重将在输入维度上被分片,第二个线性层在输出维度上进行切分。总体过程如下:
|
第一个线性层的权重将在输入维度上被分片,第二个线性层在输出维度上进行切分。总体过程如下:
|
||||||
|
|
||||||
.. math::
|
.. math::
|
||||||
Dropout((xW_1+b_1)W_2 + b_2))
|
Dropout((xW_1+b_1)W_2 + b_2)
|
||||||
|
|
||||||
其中 :math:`W_1, W_2, b_1` 和 :math:`b_2` 为可训练参数。
|
其中 :math:`W_1, W_2, b_1` 和 :math:`b_2` 为可训练参数。
|
||||||
|
|
||||||
|
|
|
@ -41,5 +41,5 @@
|
||||||
|
|
||||||
- **output** (Tensor) - 如果只有编码器,则表示编码器层的输出logit。shape为[batch, src_seq_length, hidden_size] or [batch * src_seq_length, hidden_size]。如果有编码器和解码器,则输出来自于解码器层。shape为[batch, tgt_seq_length, hidden_size]或[batch * tgt_seq_length, hidden_size]。
|
- **output** (Tensor) - 如果只有编码器,则表示编码器层的输出logit。shape为[batch, src_seq_length, hidden_size] or [batch * src_seq_length, hidden_size]。如果有编码器和解码器,则输出来自于解码器层。shape为[batch, tgt_seq_length, hidden_size]或[batch * tgt_seq_length, hidden_size]。
|
||||||
- **encoder_layer_present** (Tuple) - 大小为num_layers的元组,其中每个元组都是shape为((batch_size, num_heads, size_per_head, src_seq_length)或(batch_size, num_heads, src_seq_length, size_per_head))的自注意力中的投影key向量和value向量的tensor的元组。
|
- **encoder_layer_present** (Tuple) - 大小为num_layers的元组,其中每个元组都是shape为((batch_size, num_heads, size_per_head, src_seq_length)或(batch_size, num_heads, src_seq_length, size_per_head))的自注意力中的投影key向量和value向量的tensor的元组。
|
||||||
- **decoder_layer_present** (Tuple) - 大小为num_layers的元组,其中每个元组都是shape为((batch_size, num_heads, size_per_head, tgt_seq_length)或(batch_size, num_heads, tgt_seq_length, size_per_head))的自注意力中的投影key向量和value向量的tensor的元组,或者是shape为(batch_size, num_heads, size_per_head, src_seq_length)或(batch_size, num_heads, src_seq_length, size_per_head))的交叉注意力中的投影key向量和value向量的tensor的元组。如果未设置解码器,返回值将为None。
|
- **decoder_layer_present** (Tuple) - 大小为num_layers的元组,其中每个元组都是shape为((batch_size, num_heads, size_per_head, tgt_seq_length)或(batch_size, num_heads, tgt_seq_length, size_per_head))的自注意力中的投影key向量和value向量的tensor的元组,或者是shape为((batch_size, num_heads, size_per_head, src_seq_length)或(batch_size, num_heads, src_seq_length, size_per_head))的交叉注意力中的投影key向量和value向量的tensor的元组。如果未设置解码器,返回值将为None。
|
||||||
- **accum_loss** (Tensor) - 表示一个辅助损失来最小化路由到每个专家的数据部分的均方,且仅仅在专家数大于1时才会返回。
|
- **accum_loss** (Tensor) - 表示一个辅助损失来最小化路由到每个专家的数据部分的均方,且仅仅在专家数大于1时才会返回。
|
||||||
|
|
|
@ -24,7 +24,7 @@
|
||||||
|
|
||||||
输入:
|
输入:
|
||||||
- **hidden_states** (Tensor) - Tensor。如果use_past为False或者is_first_iteration为True,shape为[batch_size, seq_length, hidden_size]或者[batch_size * seq_length, hidden_size]。否则,shape应为[batch_size, 1, hidden_size]。
|
- **hidden_states** (Tensor) - Tensor。如果use_past为False或者is_first_iteration为True,shape为[batch_size, seq_length, hidden_size]或者[batch_size * seq_length, hidden_size]。否则,shape应为[batch_size, 1, hidden_size]。
|
||||||
- **attention_mask** (Tensor) - Tensor,表示shape为[[batch_size, seq_length, seq_length]的注意力掩码。
|
- **attention_mask** (Tensor) - Tensor,表示shape为[batch_size, seq_length, seq_length]的注意力掩码。
|
||||||
- **init_reset** (Tensor) - shape为[1]的bool tensor,用于清除增量预测中使用的past key参数和past value参数。仅当use_past为True时有效。默认值为True。
|
- **init_reset** (Tensor) - shape为[1]的bool tensor,用于清除增量预测中使用的past key参数和past value参数。仅当use_past为True时有效。默认值为True。
|
||||||
- **batch_valid_length** (Tensor) - shape为[batch_size]的Int32 tensor,表示过去所计算的索引。当use_past为True时,它用于增量预测。默认值为None。
|
- **batch_valid_length** (Tensor) - shape为[batch_size]的Int32 tensor,表示过去所计算的索引。当use_past为True时,它用于增量预测。默认值为None。
|
||||||
|
|
||||||
|
|
|
@ -1540,7 +1540,7 @@ class Tensor(Tensor_):
|
||||||
TypeError: If `axis` is a tuple or a list, but the element of `axis` is not an int.
|
TypeError: If `axis` is a tuple or a list, but the element of `axis` is not an int.
|
||||||
TypeError: If `keep_dims` is not a bool.
|
TypeError: If `keep_dims` is not a bool.
|
||||||
TypeError: If `epsilon` is not a float.
|
TypeError: If `epsilon` is not a float.
|
||||||
ValueError: If the element of `axis` is out of the range [-len(input_x.shape), len(input_x.shape)).
|
ValueError: If the element of `axis` is out of the range (-len(input_x.shape), len(input_x.shape)).
|
||||||
input_x refers to self tensor.
|
input_x refers to self tensor.
|
||||||
ValueError: If the length of shape of `axis` is bigger than the length of shape of self tensor.
|
ValueError: If the length of shape of `axis` is bigger than the length of shape of self tensor.
|
||||||
|
|
||||||
|
|
|
@ -220,7 +220,8 @@ class SSIM(Cell):
|
||||||
l(x,y)&=\frac{2\mu_x\mu_y+C_1}{\mu_x^2+\mu_y^2+C_1}, C_1=(K_1L)^2.\\
|
l(x,y)&=\frac{2\mu_x\mu_y+C_1}{\mu_x^2+\mu_y^2+C_1}, C_1=(K_1L)^2.\\
|
||||||
c(x,y)&=\frac{2\sigma_x\sigma_y+C_2}{\sigma_x^2+\sigma_y^2+C_2}, C_2=(K_2L)^2.\\
|
c(x,y)&=\frac{2\sigma_x\sigma_y+C_2}{\sigma_x^2+\sigma_y^2+C_2}, C_2=(K_2L)^2.\\
|
||||||
s(x,y)&=\frac{\sigma_{xy}+C_3}{\sigma_x\sigma_y+C_3}, C_3=C_2/2.\\
|
s(x,y)&=\frac{\sigma_{xy}+C_3}{\sigma_x\sigma_y+C_3}, C_3=C_2/2.\\
|
||||||
SSIM(x,y)&=l*c*s\\&=\frac{(2\mu_x\mu_y+C_1)(2\sigma_{xy}+C_2}{(\mu_x^2+\mu_y^2+C_1)(\sigma_x^2+\sigma_y^2+C_2)}.
|
SSIM(x,y)&=l*c*s\\&=\frac{(2\mu_x\mu_y+C_1)(2\sigma_{xy}+C_2)}
|
||||||
|
{(\mu_x^2+\mu_y^2+C_1)(\sigma_x^2+\sigma_y^2+C_2)}.
|
||||||
|
|
||||||
Args:
|
Args:
|
||||||
max_val (Union[int, float]): The dynamic range of the pixel values (255 for 8-bit grayscale images).
|
max_val (Union[int, float]): The dynamic range of the pixel values (255 for 8-bit grayscale images).
|
||||||
|
|
|
@ -344,7 +344,7 @@ class FeedForward(Cell):
|
||||||
and the second linear is sharded on the output dimension. The overview process can be:
|
and the second linear is sharded on the output dimension. The overview process can be:
|
||||||
|
|
||||||
.. math::
|
.. math::
|
||||||
Dropout((xW_1+b_1)W_2 + b_2))
|
Dropout((xW_1+b_1)W_2 + b_2)
|
||||||
|
|
||||||
where the :math:`W_1, W_2, b_1` and :math:`b_2` are trainable parameters.
|
where the :math:`W_1, W_2, b_1` and :math:`b_2` are trainable parameters.
|
||||||
|
|
||||||
|
@ -2814,7 +2814,7 @@ class Transformer(Cell):
|
||||||
of the projected key and value vector in self attention with shape ((batch_size, num_heads, size_per_head,
|
of the projected key and value vector in self attention with shape ((batch_size, num_heads, size_per_head,
|
||||||
tgt_seq_length), (batch_size, num_heads, tgt_seq_length, size_per_head)), and the
|
tgt_seq_length), (batch_size, num_heads, tgt_seq_length, size_per_head)), and the
|
||||||
projected key and value vector in cross attention with shape
|
projected key and value vector in cross attention with shape
|
||||||
(batch_size, num_heads, size_per_head, src_seq_length),
|
((batch_size, num_heads, size_per_head, src_seq_length),
|
||||||
(batch_size, num_heads, src_seq_length, size_per_head)). If the decoder is not set, the
|
(batch_size, num_heads, src_seq_length, size_per_head)). If the decoder is not set, the
|
||||||
returned value will be None.
|
returned value will be None.
|
||||||
- **accum_loss** (Tensor) - A Tensor indicates an auxiliary loss to minimize the mean square of the data
|
- **accum_loss** (Tensor) - A Tensor indicates an auxiliary loss to minimize the mean square of the data
|
||||||
|
|
|
@ -4685,7 +4685,7 @@ def norm(input_x, axis, p=2, keep_dims=False, epsilon=1e-12):
|
||||||
TypeError: If `axis` is a tuple or a list, but the element of `axis` is not an int.
|
TypeError: If `axis` is a tuple or a list, but the element of `axis` is not an int.
|
||||||
TypeError: If `keep_dims` is not a bool.
|
TypeError: If `keep_dims` is not a bool.
|
||||||
TypeError: If `epsilon` is not a float.
|
TypeError: If `epsilon` is not a float.
|
||||||
ValueError: If the element of `axis` is out of the range [-len(input.shape), len(input.shape)).
|
ValueError: If the element of `axis` is out of the range (-len(input.shape), len(input.shape)).
|
||||||
ValueError: If the length of shape of `axis` is bigger than the length of shape of `input`.
|
ValueError: If the length of shape of `axis` is bigger than the length of shape of `input`.
|
||||||
|
|
||||||
Supported Platforms:
|
Supported Platforms:
|
||||||
|
|
|
@ -3008,7 +3008,7 @@ class ReverseV2(Primitive):
|
||||||
The value range of "axis" is [-dims, dims - 1]. "dims" is the dimension length of "input_x".
|
The value range of "axis" is [-dims, dims - 1]. "dims" is the dimension length of "input_x".
|
||||||
|
|
||||||
Args:
|
Args:
|
||||||
axis (Union[tuple(int), list(int)): The indices of the dimensions to reverse.
|
axis (Union[tuple(int), list(int)]): The indices of the dimensions to reverse.
|
||||||
|
|
||||||
Inputs:
|
Inputs:
|
||||||
- **input_x** (Tensor) - The target tensor. The data type is Number except float64.
|
- **input_x** (Tensor) - The target tensor. The data type is Number except float64.
|
||||||
|
|
Loading…
Reference in New Issue